Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios.
Sin embargo, el derecho a la explicación también plantea implicaciones jurídicas y éticas, ya que algunos sostienen que podría obstaculizar la innovación en I.A al dificultar a las empresas la protección de sus derechos de propiedad intelectual.
En su artículo "The Right to Explanation, Explained", Kaminski sostiene que el derecho a la explicación es importante porque permite a las personas comprender cómo se toman las decisiones algorítmicas y cuestionarlas si son injustas o discriminatorias.Señala que la toma de decisiones algorítmicas puede ser opaca, compleja y estar sujeta a errores, prejuicios y discriminación, lo que puede tener importantes consecuencias para las personas en ámbitos como el crédito, el empleo y la educación.
[5] La transparencia puede agilizar los trámites de conformidad legal y evitar a las organizaciones posibles acciones legales en el futuro,[6] ayudándolas a demostrar que cumplen la normativa y las directrices pertinentes.
[13] A un nivel más fundamental, muchos algoritmos utilizados en el aprendizaje automático no son fácilmente explicables.
[13] Las SCE se consideran la mejor manera de poner remedio a algunos problemas, aunque con algunas limitaciones severas si los datos son demasiado complejos.
Los enfoques alternativos consistirían en permitir a los usuarios explorar libremente el comportamiento del sistema mediante explicaciones interactivas.
El valor real de una explicación no será aliviar o reparar el daño emocional o económico sufrido, sino comprender por qué ocurrió algo y ayudar a garantizar que un error no vuelva a repetirse.
Además, en el sistema deben tenerse en cuenta aspectos relacionados con la explicabilidad, como la causalidad, la privacidad y la mejora del rendimiento.
Aunque el derecho a la explicación está relacionado con el artículo 22 del RGPD, que aborda las decisiones automatizadas y la elaboración de perfiles, este derecho no se menciona explícitamente en los artículos vinculantes del texto, ya que fue eliminado durante el proceso legislativo[19] Los académicos de Oxford Bryce Goodman y Seth Flaxman afirman que el RGPD crea un "derecho a la explicación", pero no profundizan mucho más allá de ese punto, señalando las limitaciones del actual RGPD.
Los académicos Andrew D Selbst y Julia Powles afirman que el debate debería reorientarse hacia la discusión sobre si se utiliza o no la expresión "derecho a explicación", debe prestarse más atención a los requisitos expresos del RGPD y cómo se relacionan con sus objetivos de fondo, y debe reflexionarse más sobre la determinación de lo que realmente significa el texto legislativo.
[22] Además, existen restricciones significativas en cuanto a los tipos de decisiones automatizadas cubiertas — que deben basarse "únicamente" en el tratamiento automatizado y tener efectos jurídicos o de importancia similar — lo que limita considerablemente la gama de sistemas y decisiones automatizados a los que se aplicaría el derecho.
[27] En Francia, la Loi pour une République numérique (Ley para una República Digital o loi numérique) de 2016 modifica el código administrativo del país para introducir una nueva disposición relativa a la explicación de las decisiones tomadas por los organismos del sector público sobre las personas.
[28] Señala que cuando se produzca "una decisión tomada sobre la base de un tratamiento algorítmico", las normas que definen dicho tratamiento y sus "características principales" deben comunicarse al ciudadano previa solicitud, cuando no exista una exclusión (por ejemplo, por seguridad nacional o defensa).