stringtranslate.com

Inteligencia artificial explicable

La IA explicable ( XAI ), que a menudo se superpone con la IA interpretable o el aprendizaje automático explicable ( XML ), se refiere a un sistema de IA sobre el cual es posible que los humanos mantengan la supervisión intelectual , o a los métodos para lograrlo. [1] La atención principal suele centrarse en el razonamiento detrás de las decisiones o predicciones realizadas por la IA [2] , que se hacen más comprensibles y transparentes. [3] XAI contrarresta la tendencia de la " caja negra " del aprendizaje automático, donde ni siquiera los diseñadores de la IA pueden explicar por qué se llegó a una decisión específica. [4] [5]

XAI espera ayudar a los usuarios de sistemas impulsados ​​por IA a desempeñarse de manera más efectiva al mejorar su comprensión de cómo razonan esos sistemas. [6] XAI puede ser una implementación del derecho social a la explicación . [7] Incluso si no existe tal derecho legal o requisito regulatorio, XAI puede mejorar la experiencia del usuario de un producto o servicio al ayudar a los usuarios finales a confiar en que la IA está tomando buenas decisiones. XAI tiene como objetivo explicar qué se ha hecho, qué se está haciendo y qué se hará a continuación, y revelar en qué información se basan estas acciones. [8] Esto hace posible confirmar el conocimiento existente, cuestionar el conocimiento existente y generar nuevas suposiciones. [9]

Los algoritmos de aprendizaje automático (ML) utilizados en la IA se pueden clasificar como de caja blanca o de caja negra . [10] Los modelos de caja blanca proporcionan resultados que son comprensibles para los expertos en el campo. Los modelos de caja negra, por otro lado, son extremadamente difíciles de explicar y difícilmente pueden entenderlos incluso los expertos en el campo. [11] Los algoritmos XAI siguen los tres principios de transparencia, interpretabilidad y explicabilidad. Un modelo es transparente "si el diseñador del enfoque puede describir y motivar los procesos que extraen los parámetros del modelo de los datos de entrenamiento y generan etiquetas a partir de los datos de prueba". [12] La interpretabilidad describe la posibilidad de comprender el modelo de ML y presentar la base subyacente para la toma de decisiones de una manera que sea comprensible para los humanos. [13] [14] [15] La explicabilidad es un concepto que se reconoce como importante, pero no se dispone de una definición consensuada. [12] Una posibilidad es “la colección de características del dominio interpretable que han contribuido, para un ejemplo dado, a producir una decisión (por ejemplo, clasificación o regresión)”. [16] Si los algoritmos cumplen estos principios, proporcionan una base para justificar decisiones, rastrearlas y así verificarlas, mejorar los algoritmos y explorar nuevos hechos. [17]

A veces también es posible lograr un resultado de alta precisión con algoritmos ML de caja blanca. Estos algoritmos tienen una estructura interpretable que puede usarse para explicar las predicciones. [18] Los modelos de cuello de botella conceptuales, que utilizan abstracciones a nivel de concepto para explicar el razonamiento del modelo, son ejemplos de esto y se pueden aplicar tanto en tareas de predicción de imágenes [19] como de texto [20] . Esto es especialmente importante en ámbitos como la medicina, la defensa, las finanzas y el derecho, donde es crucial comprender las decisiones y generar confianza en los algoritmos. [8] Muchos investigadores sostienen que, al menos para el aprendizaje automático supervisado, el camino a seguir es la regresión simbólica, donde el algoritmo busca en el espacio de expresiones matemáticas para encontrar el modelo que mejor se ajuste a un conjunto de datos determinado. [21] [22] [23]

Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos matemáticamente especificado elegido por los diseñadores del sistema, como el comando "maximizar la precisión de evaluar qué tan positivas son las críticas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de pruebas, como "las reseñas que contienen la palabra "horrible" probablemente sean negativas". Sin embargo, también puede aprender reglas inapropiadas, como "las reseñas que contienen ' Daniel Day-Lewis ' suelen ser positivas"; tales reglas pueden ser indeseables si es probable que no se generalicen fuera del conjunto de entrenamiento, o si la gente considera que la regla es "trampa" o "injusta". Un humano puede auditar las reglas en un XAI para tener una idea de la probabilidad de que el sistema se generalice a datos futuros del mundo real fuera del conjunto de prueba. [24]

Objetivos

La cooperación entre agentes (en este caso, algoritmos y humanos) depende de la confianza. Si los humanos quieren aceptar prescripciones algorítmicas, deben confiar en ellas. La falta de exhaustividad en los criterios formales de confianza es una barrera para la optimización. La transparencia, la interpretabilidad y la explicabilidad son objetivos intermedios en el camino hacia estos criterios de confianza más integrales. [25] Esto es particularmente relevante en medicina, [26] especialmente con los sistemas de apoyo a la decisión clínica (CDSS), en los que los profesionales médicos deben poder comprender cómo y por qué se tomó una decisión basada en máquinas para confiar en la decisión y aumentar su proceso de toma de decisiones. [27]

Los sistemas de IA a veces aprenden trucos indeseables que hacen un trabajo óptimo al satisfacer objetivos explícitos preprogramados en los datos de entrenamiento, pero no reflejan los deseos implícitos más matizados de los diseñadores de sistemas humanos ni la complejidad total de los datos del dominio. Por ejemplo, un sistema de 2017 encargado del reconocimiento de imágenes aprendió a "hacer trampa" buscando una etiqueta de derechos de autor que estuviera asociada con imágenes de caballos en lugar de aprender a saber si un caballo realmente estaba representado. [5] En otro sistema de 2017, una IA de aprendizaje supervisado encargada de agarrar elementos en un mundo virtual aprendió a hacer trampa colocando su manipulador entre el objeto y el espectador de una manera tal que parecía falsamente estar agarrando el objeto. [28] [29]

Un proyecto de transparencia, el programa DARPA XAI, tiene como objetivo producir modelos de "cajas de cristal" que sean explicables para un " humano en el circuito " sin sacrificar mucho el rendimiento de la IA. Los usuarios humanos de un sistema de este tipo pueden comprender la cognición de la IA (tanto en tiempo real como a posteriori) y pueden determinar si confiar en la IA. [30] Otras aplicaciones de XAI son la extracción de conocimientos a partir de modelos de caja negra y comparaciones de modelos. [31] En el contexto de los sistemas de seguimiento del cumplimiento ético y sociolegal, el término "caja de cristal" se utiliza comúnmente para referirse a herramientas que rastrean las entradas y salidas del sistema en cuestión y proporcionan explicaciones basadas en valores para sus comportamiento. Estas herramientas tienen como objetivo garantizar que el sistema funcione de acuerdo con estándares éticos y legales, y que sus procesos de toma de decisiones sean transparentes y responsables. El término "caja de cristal" se utiliza a menudo en contraste con los sistemas de "caja negra", que carecen de transparencia y pueden ser más difíciles de monitorear y regular. [32] El término también se utiliza para nombrar a un asistente de voz que produce declaraciones contrafactuales como explicaciones. [33]

Explicabilidad versus interpretabilidad

Existe una diferencia entre los términos explicabilidad e interpretabilidad en el contexto de la IA. [34]

Historia y métodos

Durante las décadas de 1970 y 1990, los sistemas de razonamiento simbólico , como MYCIN , [36] GUIDON, [37] SOPHIE, [38] y PROTOS [39] [40] , podían representar, razonar y explicar su razonamiento para diagnóstico, instrucción y o con fines de aprendizaje automático (aprendizaje basado en explicaciones). MYCIN, desarrollado a principios de la década de 1970 como un prototipo de investigación para diagnosticar infecciones por bacteriemia del torrente sanguíneo, podría explicar [41] cuál de sus reglas codificadas a mano contribuía a un diagnóstico en un caso específico. La investigación en sistemas de tutoría inteligentes dio como resultado el desarrollo de sistemas como SOPHIE que podrían actuar como un "experto articulado", explicando la estrategia de resolución de problemas a un nivel que el estudiante pudiera entender, para que supiera qué acción tomar a continuación. Por ejemplo, SOPHIE pudo explicar el razonamiento cualitativo detrás de su resolución de problemas electrónicos, aunque en última instancia se basó en el simulador de circuito SPICE . De manera similar, GUIDON agregó reglas tutoriales para complementar las reglas a nivel de dominio de MYCIN para poder explicar la estrategia para el diagnóstico médico. Los enfoques simbólicos del aprendizaje automático que se basan en el aprendizaje basado en explicaciones, como PROTOS, hicieron uso de representaciones explícitas de explicaciones expresadas en un lenguaje de explicación dedicado, tanto para explicar sus acciones como para adquirir nuevos conocimientos. [40]

Desde la década de 1980 hasta principios de la de 1990, los sistemas de mantenimiento de la verdad (TMS) ampliaron las capacidades de los sistemas de inferencia basados ​​en razonamiento causal, basados ​​en reglas y basados ​​en lógica. [42] : 360–362  Un TMS rastrea explícitamente líneas alternativas de razonamiento, justificaciones de conclusiones y líneas de razonamiento que conducen a contradicciones, lo que permite que el razonamiento futuro evite estos callejones sin salida. Para proporcionar una explicación, rastrean el razonamiento desde las conclusiones hasta los supuestos a través de operaciones de reglas o inferencias lógicas, lo que permite generar explicaciones a partir de los rastros del razonamiento. Como ejemplo, consideremos a un solucionador de problemas basado en reglas con sólo unas pocas reglas sobre Sócrates y que concluye que ha muerto por envenenamiento:

Con solo rastrear la estructura de dependencia, el solucionador del problema puede construir la siguiente explicación: "Sócrates murió porque era mortal y bebió veneno, y todos los mortales mueren cuando beben veneno. Sócrates era mortal porque era un hombre y todos los hombres son mortales. Sócrates bebió veneno porque tenía creencias disidentes, el gobierno era conservador y aquellos que tenían creencias disidentes conservadoras bajo gobiernos conservadores deben beber veneno". [43] : 164–165 

En la década de 1990, los investigadores comenzaron a estudiar si es posible extraer de manera significativa las reglas no codificadas a mano que generan las redes neuronales entrenadas y opacas. [44] Los investigadores de sistemas clínicos expertos que crean [ se necesita aclaración ] soporte de decisiones para los médicos impulsado por redes neuronales buscaron desarrollar explicaciones dinámicas que permitan que estas tecnologías sean más confiables y dignas de confianza en la práctica. [7] En la década de 2010, las preocupaciones públicas sobre los prejuicios raciales y de otro tipo en el uso de la IA para decisiones de sentencias penales y determinaciones de solvencia pueden haber llevado a una mayor demanda de inteligencia artificial transparente. [5] Como resultado, muchos académicos y organizaciones están desarrollando herramientas para ayudar a detectar sesgos en sus sistemas. [45]

Marvin Minsky y cols. planteó la cuestión de que la IA puede funcionar como una forma de vigilancia, con los sesgos inherentes a la vigilancia, sugiriendo la HI (Inteligencia Humanística) como una forma de crear una IA "humana en el circuito" más justa y equilibrada. [46]

Las técnicas modernas y complejas de IA, como el aprendizaje profundo y los algoritmos genéticos , son naturalmente opacas. [47] Para abordar esta cuestión, se han desarrollado métodos para hacer que los nuevos modelos sean más explicables e interpretables. [48] ​​[14] [13] [49] [50] [51] Esto incluye la propagación de relevancia por capas (LRP), una técnica para determinar qué características en un vector de entrada particular contribuyen más fuertemente a la salida de una red neuronal. [52] [53] Otras técnicas explican alguna predicción particular realizada por un modelo de caja negra (no lineal), un objetivo denominado "interpretabilidad local". [54] [55] [56] [57] [58] [59] La mera transposición de los conceptos de interpretabilidad local a un contexto remoto (donde el modelo de caja negra se ejecuta en un tercero) está actualmente bajo escrutinio [ impreciso ] . [ se necesita aclaración ] [60] [61]

Se ha trabajado para fabricar modelos de cajas de vidrio que sean más transparentes a la inspección. [18] [62] Esto incluye árboles de decisión , [63] redes bayesianas , modelos lineales dispersos , [64] y más. [65] La Conferencia de la Asociación para la Maquinaria de Computación sobre Equidad, Responsabilidad y Transparencia (ACM FAccT) se estableció en 2018 para estudiar la transparencia y la explicabilidad en el contexto de los sistemas sociotécnicos, muchos de los cuales incluyen inteligencia artificial. [66] [67]

Algunas técnicas permiten visualizar las entradas a las que las neuronas de software individuales responden con mayor fuerza. Varios grupos descubrieron que las neuronas se pueden agregar en circuitos que realizan funciones comprensibles para los humanos, algunas de las cuales surgen de manera confiable a través de diferentes redes entrenadas de forma independiente. [68] [69]

Existen varias técnicas para extraer representaciones comprimidas de las características de entradas determinadas, que luego pueden analizarse mediante técnicas de agrupación estándar . Alternativamente, se pueden entrenar redes para que generen explicaciones lingüísticas de su comportamiento, que luego sean directamente interpretables por humanos. [70] El comportamiento del modelo también se puede explicar con referencia a datos de entrenamiento, por ejemplo, evaluando qué entradas de entrenamiento influyeron más en un comportamiento determinado. [71]

El uso de inteligencia artificial explicable (XAI) en la investigación del dolor, específicamente en la comprensión del papel de la actividad electrodérmica para el reconocimiento automatizado del dolor: características hechas a mano y modelos de aprendizaje profundo en el reconocimiento del dolor, destacando los conocimientos que las características simples hechas a mano pueden generar resultados comparativos. rendimientos de los modelos de aprendizaje profundo y que tanto la ingeniería de características tradicional como los enfoques de aprendizaje de características profundas se basan en características simples de los datos de series de tiempo de entrada. [72]

Regulación

A medida que los reguladores, los organismos oficiales y los usuarios en general dependan de sistemas dinámicos basados ​​en IA, se requerirá una rendición de cuentas más clara para los procesos automatizados de toma de decisiones para garantizar la confianza y la transparencia. La primera conferencia global dedicada exclusivamente a esta disciplina emergente fue la Conferencia Internacional Conjunta sobre Inteligencia Artificial de 2017 : Taller sobre Inteligencia Artificial Explicable (XAI). [73]

La Unión Europea introdujo un derecho a explicaciones en el Derecho General de Protección de Datos (GDPR) para abordar posibles problemas derivados de la creciente importancia de los algoritmos. La implementación del reglamento comenzó en 2018. Sin embargo, el derecho a explicaciones en el RGPD cubre solo el aspecto local de la interpretabilidad. En los Estados Unidos, las compañías de seguros deben poder explicar sus decisiones sobre tarifas y cobertura. [74] En Francia, la Loi pour une République numérique (Ley de República Digital) otorga a los sujetos el derecho a solicitar y recibir información relativa a la implementación de algoritmos que procesan datos sobre ellos.

Limitaciones

A pesar de los esfuerzos en curso para mejorar la explicabilidad de los modelos de IA, persisten con varias limitaciones inherentes.

Partes adversarias

Al hacer que un sistema de IA sea más explicable, también revelamos más de su funcionamiento interno. Por ejemplo, el método de explicabilidad de la importancia de las características identifica las características o variables que son más importantes para determinar el resultado del modelo, mientras que el método de muestras influyentes identifica las muestras de entrenamiento que son más influyentes para determinar el resultado, dada una entrada particular. [75] Las partes adversarias podrían aprovechar este conocimiento.

Por ejemplo, las empresas competidoras podrían replicar aspectos del sistema de IA original en su propio producto, reduciendo así la ventaja competitiva. [76] Un sistema de IA explicable también es susceptible de ser "engañado", influenciado de una manera que socave su propósito previsto. Un estudio da el ejemplo de un sistema policial predictivo; en este caso, quienes potencialmente podrían “engañar” al sistema son los delincuentes sujetos a las decisiones del sistema. En este estudio, los desarrolladores del sistema discutieron el tema de las bandas criminales que buscan obtener pasaportes ilegalmente y expresaron su preocupación de que, si se les diera una idea de qué factores podrían desencadenar una alerta en el proceso de solicitud de pasaporte, esas bandas podrían “ enviar conejillos de indias” para probar esos factores desencadenantes, y finalmente encontrar una laguna que les permitiría “obtener pasaportes de manera confiable ante las narices de las autoridades”. [77]

Complejidad técnica

Una barrera fundamental para hacer que los sistemas de IA sean explicables es la complejidad técnica de dichos sistemas. Los usuarios finales a menudo carecen de los conocimientos de codificación necesarios para comprender software de cualquier tipo. Los métodos actuales utilizados para explicar la IA son principalmente técnicos, dirigidos a ingenieros de aprendizaje automático con fines de depuración, en lugar de a los usuarios finales que en última instancia se ven afectados por el sistema, lo que provoca "una brecha entre la explicabilidad en la práctica y el objetivo de transparencia". [75] Las soluciones propuestas para abordar el problema de la complejidad técnica incluyen promover la educación en codificación del público en general para que las explicaciones técnicas sean más accesibles para los usuarios finales, o proporcionar explicaciones en términos simples. [76]

La solución debe evitar una simplificación excesiva. Es importante lograr un equilibrio entre precisión (qué tan fielmente refleja la explicación el proceso del sistema de IA) y explicabilidad (qué tan bien entienden el proceso los usuarios finales). Este es un equilibrio difícil de lograr, ya que la complejidad del aprendizaje automático hace que sea difícil de entender completamente incluso para los ingenieros de ML, y mucho menos para los no expertos. [75]

Comprensión versus confianza

El objetivo de la explicabilidad a los usuarios finales de los sistemas de IA es aumentar la confianza en los sistemas, incluso "abordar las preocupaciones sobre la falta de 'justicia' y los efectos discriminatorios". [76] Sin embargo, incluso con una buena comprensión de un sistema de IA, es posible que los usuarios finales no necesariamente confíen en el sistema. [78] En un estudio, a los participantes se les presentaron combinaciones de explicaciones de caja blanca y de caja negra, y explicaciones estáticas e interactivas de sistemas de IA. Si bien estas explicaciones sirvieron para aumentar tanto su comprensión objetiva como la autoinformada, no tuvieron ningún impacto en su nivel de confianza, que permaneció escéptico. [79]

Este resultado fue especialmente cierto para las decisiones que impactaron al usuario final de manera significativa, como las admisiones a la escuela de posgrado. Los participantes consideraron que los algoritmos eran demasiado inflexibles e implacables en comparación con los tomadores de decisiones humanos; En lugar de adherirse rígidamente a un conjunto de reglas, los humanos pueden considerar casos excepcionales y apelar a su decisión inicial. [79] Para tales decisiones, la explicabilidad no necesariamente hará que los usuarios finales acepten el uso de algoritmos de toma de decisiones. Tendremos que recurrir a otro método para aumentar la confianza y la aceptación de los algoritmos de toma de decisiones, o cuestionar la necesidad de depender únicamente de la IA para tomar decisiones tan impactantes en primer lugar.

Sin embargo, algunos enfatizan que el propósito de la explicabilidad de la inteligencia artificial no es simplemente aumentar la confianza de los usuarios en las decisiones del sistema, sino calibrar el nivel de confianza de los usuarios al nivel correcto. [80] Según este principio, demasiada o muy poca confianza del usuario en el sistema de IA dañará el rendimiento general de la unidad del sistema humano. Cuando la confianza es excesiva, los usuarios no son críticos ante posibles errores del sistema y cuando los usuarios no tienen suficiente confianza en el sistema, no agotarán los beneficios inherentes al mismo.

Crítica

Algunos académicos han sugerido que la explicabilidad en la IA debería considerarse un objetivo secundario a la eficacia de la IA, y que fomentar el desarrollo exclusivo de XAI puede limitar la funcionalidad de la IA en términos más amplios. [81] [82] Las críticas a XAI se basan en conceptos desarrollados de razonamiento mecanicista y empírico de la medicina basada en evidencia para sugerir que las tecnologías de IA pueden validarse clínicamente incluso cuando sus operadores no pueden entender su función. [81]

Algunos investigadores abogan por el uso de modelos de aprendizaje automático inherentemente interpretables, en lugar de utilizar explicaciones post hoc en las que se crea un segundo modelo para explicar el primero. Esto se debe en parte a que los modelos post-hoc aumentan la complejidad en una vía de decisión y en parte a que a menudo no está claro con qué fidelidad una explicación post-hoc puede imitar los cálculos de un modelo completamente separado. [18] Sin embargo, otra opinión es que lo importante es que la explicación cumpla con la tarea en cuestión, y no importa si es pre o post-hoc. Si un método de explicación post hoc ayuda al médico a diagnosticar mejor el cáncer, es de importancia secundaria si se trata de una explicación correcta o incorrecta.

Los objetivos de XAI equivalen a una forma de compresión con pérdidas que se volverá menos efectiva a medida que los modelos de IA crezcan en su número de parámetros. Junto con otros factores, esto conduce a un límite teórico de explicabilidad. [83]

Explicabilidad en campos relacionados.

La explicabilidad también se estudió en campos relacionados.

Votación

Cailloux y Endriss [84] presentan un método para explicar las reglas de votación utilizando los axiomas que las caracterizan. Ejemplifican su método con la regla de votación Borda .

Peters, Procaccia, Psomas y Zhou [85] presentan un algoritmo para explicar los resultados de la regla de Borda utilizando explicaciones O( m 2 ) y demuestran que esto es estricto en el peor de los casos.

Presupuesto participativo

Yang, Hausladen, Peters, Pournaras, Fricker y Helbing [86] presentan un estudio empírico sobre la explicabilidad en el presupuesto participativo . Compararon las reglas Greedy y Equal Shares , y tres tipos de explicaciones: explicación del mecanismo (una explicación general de cómo funciona la regla de agregación dada la entrada de voto), explicación individual (que explica cuántos votantes tenían al menos un proyecto aprobado, al menos 10.000 CHF en proyectos aprobados) y explicación en grupo (explicando cómo se distribuye el presupuesto entre los distritos y los temas). Compararon la confiabilidad y equidad percibidas de Greedy and Equal Shares, antes y después de las explicaciones. Descubrieron que, para MES, la explicación del mecanismo produce el mayor aumento en la percepción de equidad y confiabilidad; el segundo más alto fue la explicación del grupo. Para Greedy, la explicación del mecanismo aumenta la confiabilidad percibida pero no la justicia, mientras que la explicación individual aumenta tanto la justicia percibida como la confiabilidad. La explicación grupal disminuye la percepción de justicia y confiabilidad.

Asignación de pagos

Nizri, Azaria y Hazon [87] presentan un algoritmo para calcular explicaciones del valor de Shapley . Dado un juego de coalición, su algoritmo lo descompone en subjuegos, para los cuales es fácil generar explicaciones verbales basadas en los axiomas que caracterizan el valor de Shapley. La asignación de pagos para cada subjuego se percibe como justa, por lo que la asignación de pagos basada en Shapley para el juego en cuestión también debería parecer justa. Un experimento con 210 sujetos humanos muestra que, con sus explicaciones generadas automáticamente, los sujetos perciben la asignación de pagos basada en Shapley como significativamente más justa que con una explicación estándar general.

Ver también

Referencias

  1. ^ Mihály, Heder (2023). "IA explicable: una breve historia del concepto" (PDF) . Noticias ERCIM (134): 9–10.
  2. ^ Phillips, P. Jonathon; Hahn, Carina A.; Fontana, Peter C.; Yates, Amy N.; Verde, Kristen; Broniatowski, David A.; Przybocki, Mark A. (29 de septiembre de 2021). "Cuatro principios de la inteligencia artificial explicable". doi : 10.6028/nist.ir.8312. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  3. ^ Vilone, Giulia; Longo, Luca (2021). "Nociones de explicabilidad y enfoques de evaluación para inteligencia artificial explicable". Fusión de información . Diciembre de 2021 - Volumen 76: 89–106. doi :10.1016/j.inffus.2021.05.009.
  4. ^ Castelvecchi, Davide (6 de octubre de 2016). "¿Podemos abrir la caja negra de la IA?". Naturaleza . 538 (7623): 20–23. Código Bib :2016Natur.538...20C. doi :10.1038/538020a. ISSN  0028-0836. PMID  27708329. S2CID  4465871.
  5. ^ abc Sample, Ian (5 de noviembre de 2017). "La computadora dice que no: por qué es crucial hacer que las IA sean justas, responsables y transparentes". El guardián . Consultado el 30 de enero de 2018 .
  6. ^ Alizadeh, Fatemeh (2021). "No sé, ¿también se utiliza la IA en los airbags?: Un estudio empírico de los conceptos populares y las expectativas de la gente sobre la inteligencia artificial actual y futura". Icom . 20 (1): 3–17. doi :10.1515/icom-2021-0009. S2CID  233328352.
  7. ^ ab Edwards, Lilian; Veale, Michael (2017). "¿Esclavo del algoritmo? Por qué un 'derecho a una explicación' probablemente no sea el remedio que está buscando". Revisión de tecnología y derecho de Duke . 16 : 18. SSRN  2972855.
  8. ^ ab Gunning, D.; Stefik, M.; Choi, J.; Molinero, T.; Stumpf, S.; Yang, G.-Z. (2019-12-18). "XAI-Inteligencia artificial explicable". Robótica científica . 4 (37): fácil7120. doi : 10.1126/scirobotics.aay7120 . ISSN  2470-9476. PMID  33137719.
  9. ^ Rieg, Thilo; Frick, Janek; Baumgartl, Hermann; Buettner, Ricardo (17 de diciembre de 2020). "Demostración del potencial de los enfoques de aprendizaje automático de caja blanca para obtener información a partir de electrocardiogramas de enfermedades cardiovasculares". MÁS UNO . 15 (12): e0243615. Código Bib : 2020PLoSO..1543615R. doi : 10.1371/journal.pone.0243615 . ISSN  1932-6203. PMC 7746264 . PMID  33332440. 
  10. ^ Vilone, Giulia; Longo, Luca (2021). "Clasificación de métodos de inteligencia artificial explicables a través de sus formatos de salida". Aprendizaje automático y extracción de conocimiento . 3 (3): 615–661. doi : 10.3390/make3030032 .
  11. ^ Loyola-González, O. (2019). "Caja negra versus caja blanca: comprender sus ventajas y debilidades desde un punto de vista práctico". Acceso IEEE . 7 : 154096–154113. Código Bib : 2019IEEEA...7o4096L. doi : 10.1109/ACCESS.2019.2949286 . ISSN  2169-3536.
  12. ^ ab Roscher, R.; Bohn, B.; Duarte, MF; Garcke, J. (2020). "Aprendizaje automático explicable para descubrimientos y conocimientos científicos". Acceso IEEE . 8 : 42200–42216. arXiv : 1905.08883 . Código Bib : 2020IEEEA...842200R. doi : 10.1109/ACCESS.2020.2976199 . ISSN  2169-3536.
  13. ^ ab Murdoch, W. James; Singh, Chandan; Kumbier, Karl; Abbasi-Asl, Reza; Yu, Bin (14 de enero de 2019). "Aprendizaje automático interpretable: definiciones, métodos y aplicaciones". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 116 (44): 22071–22080. arXiv : 1901.04592 . doi : 10.1073/pnas.1900654116 . PMC 6825274 . PMID  31619572. 
  14. ^ ab Lipton, Zachary C. (junio de 2018). "Los mitos de la interpretabilidad del modelo: en el aprendizaje automático, el concepto de interpretabilidad es importante y resbaladizo". Cola . 16 (3): 31–57. doi : 10.1145/3236386.3241340 . ISSN  1542-7730.
  15. ^ "Inteligencia artificial explicable (XAI): conceptos, taxonomías, oportunidades y desafíos hacia una IA responsable". IA profunda . 2019-10-22 . Consultado el 13 de enero de 2021 .
  16. ^ Montavon, Gregoire; Samek, Wojciech; Müller, Klaus-Robert (1 de febrero de 2018). "Métodos para interpretar y comprender redes neuronales profundas". Procesamiento de señales digitales . 73 : 1–15. doi : 10.1016/j.dsp.2017.10.011 . ISSN  1051-2004.
  17. ^ Adadi, A.; Berrada, M. (2018). "Mirando dentro de la caja negra: una encuesta sobre inteligencia artificial explicable (XAI)". Acceso IEEE . 6 : 52138–52160. Código Bib : 2018IEEEA...652138A. doi : 10.1109/ACCESS.2018.2870052 . ISSN  2169-3536.
  18. ^ abc Rudin, Cynthia (2019). "Deje de explicar modelos de aprendizaje automático de caja negra para decisiones de alto riesgo y utilice modelos interpretables en su lugar". Inteligencia de la máquina de la naturaleza . 1 (5): 206–215. arXiv : 1811.10154 . doi : 10.1038/s42256-019-0048-x . ISSN  2522-5839. PMC 9122117 . PMID  35603010. 
  19. ^ Koh, PW; Nguyen, T.; Tang, YS; Mussmann, S.; Pierson, E.; Kim, B.; Liang, P. (noviembre de 2020). "Modelos conceptuales de cuello de botella". Congreso Internacional sobre Aprendizaje Automático . PMLR. págs. 5338–5348.
  20. ^ Ludán, JM; Lyu, Q.; Yang, Y.; Dugan, L.; Yatskar, M.; Callison-Burch, C. (2023). "Clasificación de texto interpretable por diseño con cuello de botella de concepto generado iterativamente". arXiv : 2310.19660 [cs.CL].
  21. ^ Wenninger, Simón; Kaymakci, Can; Wiethe, cristiano (2022). "Predicción explicable del consumo de energía de los edificios a largo plazo utilizando QLattice". Energía Aplicada . Elsevier BV. 308 : 118300. Código bibliográfico : 2022ApEn..30818300W. doi : 10.1016/j.apenergy.2021.118300. ISSN  0306-2619. S2CID  245428233.
  22. ^ Christiansen, Michael; Wilstrup, Casper; Hedley, Paula L. (2022). "El aprendizaje automático explicable de" caja blanca "es el camino a seguir en la detección de preeclampsia". Revista Estadounidense de Obstetricia y Ginecología . Elsevier BV. 227 (5): 791. doi :10.1016/j.ajog.2022.06.057. ISSN  0002-9378. PMID  35779588. S2CID  250160871.
  23. ^ Wilstup, Casper; Cave, Chris (15 de enero de 2021), La combinación de la regresión simbólica con el modelo de riesgos proporcionales de Cox mejora la predicción de muertes por insuficiencia cardíaca , Laboratorio Cold Spring Harbor, doi :10.1101/2021.01.15.21249874, S2CID  231609904
  24. ^ "Cómo los detectives de IA están abriendo la caja negra del aprendizaje profundo". Ciencia . 5 de julio de 2017 . Consultado el 30 de enero de 2018 ..
  25. ^ Dosilovic, Filip; Brcic, Mario; Hlupic, Nikica (25 de mayo de 2018). "Inteligencia artificial explicable: una encuesta" (PDF) . MIPRO 2018 - Actas de la 41ª Convención Internacional . MIPRO 2018. Opatija, Croacia. págs. 210-215. doi :10.23919/MIPRO.2018.8400040. ISBN 978-953-233-095-3. Archivado desde el original (PDF) el 10 de diciembre de 2018 . Consultado el 9 de diciembre de 2018 .
  26. ^ Bernal, José; Mazo, Claudia (2022-10-11). "Transparencia de la inteligencia artificial en la atención médica: conocimientos de profesionales de la informática y la atención médica en todo el mundo". Ciencias Aplicadas . 12 (20): 10228. doi : 10.3390/app122010228 . ISSN  2076-3417.
  27. ^ Antoniadi, Anna Markella; Du, Yuhan; Guendouz, Yasmine; Wei, Lan; Mazo, Claudia; Becker, Brett A.; Mooney, Catherine (enero de 2021). "Desafíos actuales y oportunidades futuras para XAI en sistemas de apoyo a la decisión clínica basados ​​en aprendizaje automático: una revisión sistemática". Ciencias Aplicadas . 11 (11): 5088. doi : 10.3390/app11115088 . ISSN  2076-3417.
  28. ^ "DeepMind tiene pruebas simples que podrían prevenir el apocalipsis de la IA de Elon Musk". Bloomberg.com . 11 de diciembre de 2017 . Consultado el 30 de enero de 2018 .
  29. ^ "Aprender de las preferencias humanas". Blog de OpenAI . 13 de junio de 2017 . Consultado el 30 de enero de 2018 .
  30. ^ "Inteligencia artificial explicable (XAI)". DARPA . Consultado el 17 de julio de 2017 .
  31. ^ Biecek, Przemyslaw (23 de junio de 2018). "DALEX: explicadores de modelos predictivos complejos". Revista de investigación sobre aprendizaje automático . 19 : 1–5. arXiv : 1806.08915 . Código Bib : 2018arXiv180608915B.
  32. ^ Rai, Arun. "IA explicable: de la caja negra a la caja de cristal". Revista de la Academia de Ciencias del Marketing 48 (2020): 137-141.
  33. ^ Sokol, Kacper; Flach, Peter (2018). "Glass-Box: Explicación de las decisiones de IA con declaraciones contrafactuales a través de una conversación con un asistente virtual habilitado por voz". Actas de la Vigésima Séptima Conferencia Internacional Conjunta sobre Inteligencia Artificial . págs. 5868–5870. doi :10.24963/ijcai.2018/865. ISBN 9780999241127. S2CID  51608978.
  34. ^ Broniatowski, David A. (2021). "Fundamentos psicológicos de la explicabilidad y la interpretabilidad en la inteligencia artificial". Pubs del NIST .
  35. ^ ab ISO/IEC TR 29119-11:2020, Ingeniería de sistemas y software, Pruebas de software, Parte 11: Directrices para las pruebas de sistemas basados ​​en IA. YO ASI . 2020 . Consultado el 25 de noviembre de 2023 .
  36. ^ Fagan, LM; Shortliffe, EH; Buchanan, BG (1980). "Toma de decisiones médicas por ordenador: de MYCIN a VM". Automedica . 3 (2): 97-108.
  37. ^ Clancey, William (1987). Tutoría basada en el conocimiento: el programa GUIDON . Cambridge, Massachusetts: Prensa del MIT.
  38. ^ Marrón, John S.; Burton, RR; De Kleer, Johan (1982). "Técnicas pedagógicas, de lenguaje natural y de ingeniería del conocimiento en SOPHIE I, II y III". Sistemas Inteligentes de Tutoría . Prensa académica. ISBN 0-12-648680-8.
  39. ^ Bareiss, Ray; Portero, Bruce; Vertedero, Craig; Holte, Robert (1990). "Protos: un aprendiz de aprendizaje basado en ejemplos". Aprendizaje automático . vol. 3. Morgan Kaufmann Publishers Inc. págs. 112-139. ISBN 1-55860-119-8.
  40. ^ ab Bareiss, Ray (1989). Adquisición de conocimientos basada en ejemplos: un enfoque unificado para la representación, clasificación y aprendizaje de conceptos . Perspectivas en Inteligencia Artificial. Prensa académica .
  41. ^ Van Lent, M.; Pescador, W.; Mancuso, M. (julio de 2004). "Un sistema de inteligencia artificial explicable para el comportamiento táctico de unidades pequeñas". Actas de la Conferencia Nacional sobre Inteligencia Artificial . San José, CA: AAAI Press. págs. 900–907. ISBN 0262511835.
  42. ^ Russell, Estuardo; Norvig, Peter (2003). Inteligencia artificial: un enfoque moderno . Serie Prentice Hall sobre Inteligencia Artificial (Segunda ed.). Upper Saddle River, Nueva Jersey: Prentice Hall, Pearson Education. ISBN 0-13-790395-2.
  43. ^ Forbus, Kenneth; De Kleer, Johan (1993). Solucionadores de problemas de construcción . Cambridge, Massachusetts: Prensa del MIT. ISBN 0-262-06157-0.
  44. ^ Cosquillas, AB; Andrews, R.; Golea, M.; Diederich, J. (noviembre de 1998). "La verdad saldrá a la luz: direcciones y desafíos en la extracción del conocimiento integrado en redes neuronales artificiales entrenadas". Transacciones IEEE en redes neuronales . 9 (6): 1057–1068. doi : 10.1109/72.728352. ISSN  1045-9227. PMID  18255792. S2CID  11111578.
  45. ^ "Accenture presenta una herramienta para ayudar a las empresas a garantizar que su IA sea justa". Bloomberg.com . Junio ​​de 2018 . Consultado el 5 de agosto de 2018 .
  46. ^ Minsky, et al., "La sociedad de la vigilancia inteligente" IEEE ISTAS2013, páginas 13-17.
  47. ^ Mukherjee, Siddhartha (27 de marzo de 2017). "AI versus MD" The New Yorker . Consultado el 30 de enero de 2018 .
  48. ^ Csiszár, Orsolya; Csiszár, Gábor; Dombi, József (8 de julio de 2020). "Redes neuronales interpretables basadas en lógica de valores continuos y operadores de decisión multicriterio". Sistemas basados ​​en el conocimiento . 199 : 105972. arXiv : 1910.02486 . doi : 10.1016/j.knosys.2020.105972 . ISSN  0950-7051.
  49. ^ Doshi-Velez, final; Kim, estado (27 de febrero de 2017). "Hacia una ciencia rigurosa del aprendizaje automático interpretable". arXiv : 1702.08608 [estad.ML].
  50. ^ Abdollahi, Behnoush y Olfa Nasraoui. (2016). "Máquinas Boltzmann restringidas explicables para filtrado colaborativo". arXiv : 1606.07129 [estad.ML].{{cite arXiv}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  51. ^ Dombi, József; Csiszár, Orsolya (2021). Redes neuronales explicables basadas en lógica difusa y herramientas de decisión multicriterio. Estudios en Borrosidad y Soft Computing. vol. 408. doi :10.1007/978-3-030-72280-7. ISBN 978-3-030-72279-1. ISSN  1434-9922. S2CID  233486978.
  52. ^ Bach, Sebastián; Carpeta, Alejandro; Montavon, Grégoire; Klauschen, Federico; Müller, Klaus-Robert ; Samek, Wojciech (10 de julio de 2015). Suárez, Oscar Deniz (ed.). "Sobre explicaciones en términos de píxeles para decisiones de clasificadores no lineales mediante propagación de relevancia en capas". MÁS UNO . 10 (7): e0130140. Código Bib : 2015PLoSO..1030140B. doi : 10.1371/journal.pone.0130140 . ISSN  1932-6203. PMC 4498753 . PMID  26161953. 
  53. ^ Muestra, Ian (5 de noviembre de 2017). "La computadora dice que no: por qué es crucial hacer que las IA sean justas, responsables y transparentes". El guardián . Consultado el 5 de agosto de 2018 .
  54. ^ Martens, David; Preboste, Foster (2014). "Explicación de las clasificaciones de documentos basadas en datos" (PDF) . MIS trimestral . 38 : 73–99. doi :10.25300/MISQ/2014/38.1.04. S2CID  14238842.
  55. ^ ""¿Por qué debería confiar en ti?" | Actas de la 22ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y Minería de Datos". doi :10.1145/2939672.2939778. S2CID  13029170. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  56. ^ Lundberg, Scott M; Lee, Su-In (2017), Guyon, I.; Luxemburgo, UV; Bengio, S.; Wallach, H. (eds.), "Un enfoque unificado para interpretar las predicciones de modelos" (PDF) , Avances en los sistemas de procesamiento de información neuronal 30 , Curran Associates, Inc., págs. 4765–4774, arXiv : 1705.07874 , Bibcode : 2017arXiv170507874L , recuperado el 13 de marzo de 2020
  57. ^ Carter, Brandon; Mueller, Jonás; Jainista, Siddhartha; Gifford, David (11 de abril de 2019). "¿Qué te impulsó a hacer esto? Comprender las decisiones de caja negra con suficientes subconjuntos de entrada". La 22ª Conferencia Internacional sobre Inteligencia Artificial y Estadística : 567–576.
  58. ^ Shrikumar, Avanti; Lado verde, Peyton; Kundaje, Anshul (17 de julio de 2017). "Aprender funciones importantes mediante la propagación de diferencias de activación". Conferencia internacional sobre aprendizaje automático : 3145–3153.
  59. ^ "Atribución axiomática para redes profundas | Actas de la 34ª Conferencia Internacional sobre Aprendizaje Automático - Volumen 70". dl.acm.org . Icml'17: 3319–3328. 6 de agosto de 2017 . Consultado el 13 de marzo de 2020 .
  60. ^ Aivodji, Ulrich; Arai, Hiromi; Fortineau, Olivier; Gambs, Sébastien; Hara, Satoshi; Tapp, Alain (24 de mayo de 2019). "Fairwashing: el riesgo de la racionalización". Congreso Internacional sobre Aprendizaje Automático . PMLR: 161-170. arXiv : 1901.09749 .
  61. ^ Le Merrer, Erwan; Trédan, Gilles (septiembre de 2020). "La explicabilidad remota enfrenta el problema del gorila". Inteligencia de la máquina de la naturaleza . 2 (9): 529–539. arXiv : 1910.01432 . doi :10.1038/s42256-020-0216-z. ISSN  2522-5839. S2CID  225207140.
  62. ^ Singh, Chandan; Nasseri, Keyan; Tan, Yan Shuo; Tang, Tiffany; Yu, Bin (4 de mayo de 2021). "imodels: un paquete de Python para ajustar modelos interpretables". Revista de software de código abierto . 6 (61): 3192. Código bibliográfico : 2021JOSS....6.3192S. doi :10.21105/joss.03192. ISSN  2475-9066. S2CID  235529515.
  63. ^ Vidal, Thibaut; Schiffer, Maximiliano (2020). "Conjuntos de árboles nacidos de nuevo". Congreso Internacional sobre Aprendizaje Automático . PMLR. 119 : 9743–9753. arXiv : 2003.11132 .
  64. ^ Ustún, Berk; Rudin, Cynthia (1 de marzo de 2016). "Modelos enteros lineales superdispersos para sistemas de puntuación médica optimizados". Aprendizaje automático . 102 (3): 349–391. doi :10.1007/s10994-015-5528-6. ISSN  1573-0565. S2CID  207211836.
  65. ^ Bostrom, N. y Yudkowsky, E. (2014). La ética de la inteligencia artificial. El manual de inteligencia artificial de Cambridge , 316-334.
  66. ^ "Conferencia FAT *".
  67. ^ "Los programas informáticos reconocen mejor a los hombres blancos que a las mujeres negras". El economista . 2018 . Consultado el 5 de agosto de 2018 .
  68. ^ Ola, Chris; Cammarata, Nick; Schubert, Luis; Vaya, Gabriel; Petrov, Miguel; Carter, Shan (10 de marzo de 2020). "Acercar: una introducción a los circuitos". Destilar . 5 (3): e00024.001. doi : 10.23915/distill.00024.001 . ISSN  2476-0757.
  69. ^ Li, Yixuan; Yosinski, Jason; Clune, Jeff; Lipson, Hod; Hopcroft, John (8 de diciembre de 2015). "Aprendizaje convergente: ¿Diferentes redes neuronales aprenden las mismas representaciones?". Extracción de funciones: preguntas y desafíos modernos . PMLR: 196–212.
  70. ^ Hendricks, Lisa Anne; Akata, Zeynep; Rohrbach, Marcos; Donahue, Jeff; Schiele, Bernt; Darrell, Trevor (2016). "Generación de explicaciones visuales". Visión por Computador – ECCV 2016 . Apuntes de conferencias sobre informática. vol. 9908. Publicaciones internacionales Springer. págs. 3-19. arXiv : 1603.08507 . doi :10.1007/978-3-319-46493-0_1. ISBN 978-3-319-46492-3. S2CID  12030503.
  71. ^ Koh, Pang Wei; Liang, Percy (17 de julio de 2017). "Comprensión de las predicciones de caja negra a través de funciones de influencia". Congreso Internacional sobre Aprendizaje Automático . PMLR: 1885–1894. arXiv : 1703.04730 .
  72. ^ Gobernador, Philip; Li, Federico; Shirahama, Kimiaki; Luebke, Luisa; Adamczyk, Wacław M.; Szikszay, Tibor M.; Luedtke, Kerstin; Grzegorzek, Marcin (9 de febrero de 2023). "Inteligencia artificial explicable (XAI) en la investigación del dolor: comprensión del papel de la actividad electrodérmica para el reconocimiento automatizado del dolor". Sensores . 23 (4): 1959. Código bibliográfico : 2023Senso..23.1959G. doi : 10.3390/s23041959 . ISSN  1424-8220. PMC 9960387 . PMID  36850556. 
  73. ^ "Taller IJCAI 2017 sobre Inteligencia Artificial Explicable (XAI)" (PDF) . Enlace terrestre . IJCAI. Archivado desde el original (PDF) el 4 de abril de 2019 . Consultado el 17 de julio de 2017 .
  74. ^ Kahn, Jeremy (12 de diciembre de 2018). "La inteligencia artificial tiene algunas explicaciones que dar". Semana empresarial de Bloomberg . Consultado el 17 de diciembre de 2018 .
  75. ^ abc Bhatt, Umang; Xiang, Alicia; Sharma, Shubham; Weller, Adrián; Taly, Ankur; Jia, Yunhan; Ghosh, Joydeep; Puri, Richir; MF Moura, José; Eckersley, Peter (2022). "Aprendizaje automático explicable en implementación". Actas de la Conferencia de 2020 sobre Equidad, Responsabilidad y Transparencia . págs. 648–657. doi :10.1145/3351095.3375624. ISBN 9781450369367. S2CID  202572724.
  76. ^ abc Burrel, Jenna (2016). "Cómo 'piensa' la máquina: comprensión de la opacidad en los algoritmos de aprendizaje automático". Big Data y sociedad. 3 (1). doi :10.1177/2053951715622512. S2CID  61330970. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  77. ^ Veale, Michael; Van Kleek, Max; Binns, Rubén (2018). "Necesidades de diseño de equidad y rendición de cuentas para el apoyo algorítmico en la toma de decisiones de alto riesgo en el sector público". Actas de la Conferencia CHI de 2018 sobre factores humanos en sistemas informáticos . vol. 40, págs. 1-14. doi :10.1145/3173574.3174014. ISBN 9781450356206. S2CID  3639135.
  78. ^ Hu, Tongxi; Zhang, Xuesong; Bohrer, Gil; Liu, Yanlan; Zhou, Yuyu; Martín, Jay; LI, Yang; Zhao, Kaiguang (2023). "Predicción del rendimiento de los cultivos mediante IA explicable y aprendizaje automático interpretable: peligros de los modelos de caja negra para evaluar los impactos del cambio climático en el rendimiento de los cultivos". Meteorología Agrícola y Forestal . 336 : 109458. doi : 10.1016/j.agrformet.2023.109458. S2CID  258552400.
  79. ^ ab Cheng, Hao-Fei; Wang, Ruotang; Zhang, Zheng; O'Connell, Fiona; Gris, Terrance; Harper, F.Maxwell; Zhu, Haiyi (2019). Explicación de los algoritmos de toma de decisiones a través de la interfaz de usuario: estrategias para ayudar a las partes interesadas no expertas. Actas de la Conferencia CHI de 2019 sobre factores humanos en sistemas informáticos. vol. 559, págs. 1-12. doi :10.1145/3290605.3300789. ISBN 9781450359702. S2CID  140281803.
  80. ^ Liel, Yotam; Zalmanson, Lior (agosto de 2023). "Desactivar su mejor juicio: conformidad con las recomendaciones algorítmicas". Academia de Procedimientos Gerenciales . 2023 (1). doi :10.5465/AMPROC.2023.277pb. ISSN  0065-0668. S2CID  260212999.
  81. ^ ab McCoy, Liam G.; Brenna, Connor TA; Chen, Stacy S.; Vold, Karina; Das, Sunit (5 de noviembre de 2021). "Creer en cajas negras: el aprendizaje automático para la atención sanitaria no necesita explicabilidad para estar basado en evidencia". Revista de epidemiología clínica . 142 (en línea antes de imprimir): 252–257. doi :10.1016/j.jclinepi.2021.11.001. ISSN  0895-4356. PMID  34748907. S2CID  243810442.
  82. ^ Ghassemi, Marzyeh; Oakden-Rayner, Luke; Haz, Andrew L. (01 de noviembre de 2021). "La falsa esperanza de los enfoques actuales sobre la inteligencia artificial explicable en la atención sanitaria". Salud digital de The Lancet . 3 (11): e745–e750. doi :10.1016/S2589-7500(21)00208-9. ISSN  2589-7500. PMID  34711379. S2CID  239963176.
  83. ^ Sarkar, Advait (2022). "¿Es la IA explicable una carrera contra la complejidad de los modelos?" (PDF) . Taller sobre transparencia y explicaciones en sistemas inteligentes (TeXSS), en conjunto con interfaces de usuario inteligentes ACM (IUI 2022) : 192–199. arXiv : 2205.10119 - a través de las actas del taller de CEUR.
  84. ^ Cailloux, Olivier; Endriss, Ulle (9 de mayo de 2016). "Discutir sobre las reglas de votación". Actas de la Conferencia Internacional de 2016 sobre Agentes Autónomos y Sistemas Multiagente . AAMAS '16. Richland, SC: Fundación Internacional para Agentes Autónomos y Sistemas Multiagentes: 287–295. ISBN 978-1-4503-4239-1.
  85. ^ Pedro, Dominik; Procaccia, Ariel D; Psomas, Alexandros; Zhou, Zixin (2020). "Votación explicable". Avances en los sistemas de procesamiento de información neuronal . Curran Associates, Inc. 33 : 1525-1534.
  86. ^ Yang, Josué C.; Hausladen, Carina I.; Peters, Dominik; Pournaras, Evangelos; Regula Häenggli Fricker; Helbing, Dirk (2023). "Diseño de sistemas de votación digital para los ciudadanos: lograr equidad y legitimidad en el presupuesto participativo digital". arXiv : 2310.03501 [cs.HC].
  87. ^ Nizri, Meir; Hazón, Noam; Azaria, Amós (28 de junio de 2022). "Asignación explicable basada en Shapley (resumen del estudiante)". Actas de la Conferencia AAAI sobre Inteligencia Artificial . 36 (11): 13023–13024. doi : 10.1609/aaai.v36i11.21648. ISSN  2374-3468. S2CID  250296641.

enlaces externos