Derecho a la explicación

Este derecho implica que las decisiones tomadas por sistemas automatizados deben ser transparentes y comprensibles para los usuarios.

Sin embargo, el derecho a la explicación también plantea implicaciones jurídicas y éticas, ya que algunos sostienen que podría obstaculizar la innovación en I.A al dificultar a las empresas la protección de sus derechos de propiedad intelectual.

En su artículo "The Right to Explanation, Explained", Kaminski sostiene que el derecho a la explicación es importante porque permite a las personas comprender cómo se toman las decisiones algorítmicas y cuestionarlas si son injustas o discriminatorias.Señala que la toma de decisiones algorítmicas puede ser opaca, compleja y estar sujeta a errores, prejuicios y discriminación, lo que puede tener importantes consecuencias para las personas en ámbitos como el crédito, el empleo y la educación.

[5]​ La transparencia puede agilizar los trámites de conformidad legal y evitar a las organizaciones posibles acciones legales en el futuro,[6]​ ayudándolas a demostrar que cumplen la normativa y las directrices pertinentes.

[13]​ A un nivel más fundamental, muchos algoritmos utilizados en el aprendizaje automático no son fácilmente explicables.

[13]​ Las SCE se consideran la mejor manera de poner remedio a algunos problemas, aunque con algunas limitaciones severas si los datos son demasiado complejos.

Los enfoques alternativos consistirían en permitir a los usuarios explorar libremente el comportamiento del sistema mediante explicaciones interactivas.

El valor real de una explicación no será aliviar o reparar el daño emocional o económico sufrido, sino comprender por qué ocurrió algo y ayudar a garantizar que un error no vuelva a repetirse.

Además, en el sistema deben tenerse en cuenta aspectos relacionados con la explicabilidad, como la causalidad, la privacidad y la mejora del rendimiento.

Aunque el derecho a la explicación está relacionado con el artículo 22 del RGPD, que aborda las decisiones automatizadas y la elaboración de perfiles, este derecho no se menciona explícitamente en los artículos vinculantes del texto, ya que fue eliminado durante el proceso legislativo[19]​ Los académicos de Oxford Bryce Goodman y Seth Flaxman afirman que el RGPD crea un "derecho a la explicación", pero no profundizan mucho más allá de ese punto, señalando las limitaciones del actual RGPD.

Los académicos Andrew D Selbst y Julia Powles afirman que el debate debería reorientarse hacia la discusión sobre si se utiliza o no la expresión "derecho a explicación", debe prestarse más atención a los requisitos expresos del RGPD y cómo se relacionan con sus objetivos de fondo, y debe reflexionarse más sobre la determinación de lo que realmente significa el texto legislativo.

[22]​ Además, existen restricciones significativas en cuanto a los tipos de decisiones automatizadas cubiertas — que deben basarse "únicamente" en el tratamiento automatizado y tener efectos jurídicos o de importancia similar — lo que limita considerablemente la gama de sistemas y decisiones automatizados a los que se aplicaría el derecho.

[27]​ En Francia, la Loi pour une République numérique (Ley para una República Digital o loi numérique) de 2016 modifica el código administrativo del país para introducir una nueva disposición relativa a la explicación de las decisiones tomadas por los organismos del sector público sobre las personas.

[28]​ Señala que cuando se produzca "una decisión tomada sobre la base de un tratamiento algorítmico", las normas que definen dicho tratamiento y sus "características principales" deben comunicarse al ciudadano previa solicitud, cuando no exista una exclusión (por ejemplo, por seguridad nacional o defensa).