stringtranslate.com

Transparencia algorítmica

La transparencia algorítmica es el principio según el cual los factores que influyen en las decisiones que toman los algoritmos deben ser visibles o transparentes para las personas que utilizan, regulan y se ven afectadas por los sistemas que emplean esos algoritmos. Aunque la frase fue acuñada en 2016 por Nicholas Diakopoulos y Michael Koliska sobre el papel de los algoritmos a la hora de decidir el contenido de los servicios de periodismo digital, [1] el principio subyacente se remonta a la década de 1970 y al auge de los sistemas automatizados para la evaluación del crédito al consumo.

Las frases "transparencia algorítmica" y "responsabilidad algorítmica" [2] a veces se usan indistintamente –especialmente porque fueron acuñadas por las mismas personas– pero tienen significados sutilmente diferentes. En concreto, "transparencia algorítmica" establece que los datos de entrada del algoritmo y el uso del algoritmo en sí deben ser conocidos, pero no necesariamente justos. La " responsabilidad algorítmica " implica que las organizaciones que utilizan algoritmos deben rendir cuentas de las decisiones que toman esos algoritmos, aunque las decisiones las tome una máquina y no un ser humano. [3]

La investigación actual sobre la transparencia algorítmica se interesa tanto por los efectos sociales del acceso a servicios remotos que ejecutan algoritmos, [4] como por los enfoques matemáticos y de ciencias de la computación que se pueden utilizar para lograr la transparencia algorítmica [5] En los Estados Unidos, la Oficina de Protección del Consumidor de la Comisión Federal de Comercio estudia cómo los consumidores utilizan los algoritmos realizando su propia investigación sobre la transparencia algorítmica y financiando investigaciones externas. [6] En la Unión Europea , las leyes de protección de datos que entraron en vigor en mayo de 2018 incluyen un "derecho a la explicación" de las decisiones tomadas por los algoritmos, aunque no está claro qué significa esto. [7] Además, la Unión Europea fundó el Centro Europeo para la Transparencia Algorítmica (ECAT). [8]

Véase también

Referencias

  1. ^ Nicholas Diakopoulos y Michael Koliska (2016): Transparencia algorítmica en los medios de comunicación, Periodismo digital, doi :10.1080/21670811.2016.1208053
  2. ^ Diakopoulos, Nicholas (2015). "Responsabilidad algorítmica: investigación periodística de estructuras de poder computacional". Periodismo digital . 3 (3): 398–415. doi :10.1080/21670811.2014.976411. S2CID  42357142.
  3. ^ Dickey, Megan Rose (30 de abril de 2017). "Responsabilidad algorítmica". TechCrunch . Consultado el 4 de septiembre de 2017 .
  4. ^ "Taller sobre datos y transparencia algorítmica". 2015 . Consultado el 4 de enero de 2017 .
  5. ^ "Justicia, rendición de cuentas y transparencia en el aprendizaje automático". 2015 . Consultado el 29 de mayo de 2017 .
  6. ^ Noyes, Katherine (9 de abril de 2015). "La FTC está preocupada por la transparencia algorítmica, y usted también debería estarlo". PCWorld . Consultado el 4 de septiembre de 2017 .
  7. ^ "Falso testimonio" (PDF) . Nature . 557 (7707): 612. 31 de mayo de 2018.
  8. ^ "Acerca de - Comisión Europea".