stringtranslate.com

Sesgo algorítmico

Un diagrama de flujo que muestra las decisiones tomadas por un motor de recomendación , c.  2001 [1]

El sesgo algorítmico describe errores sistemáticos y repetibles en un sistema informático que crean resultados "injustos", como "privilegiar" una categoría sobre otra de manera diferente a la función prevista del algoritmo.

El sesgo puede surgir de muchos factores, incluidos, entre otros, el diseño del algoritmo o el uso o decisiones no intencionados o no anticipados relacionados con la forma en que se codifican, recopilan, seleccionan o utilizan los datos para entrenar el algoritmo. Por ejemplo, se ha observado un sesgo algorítmico en los resultados de los motores de búsqueda y en las plataformas de redes sociales . Este sesgo puede tener impactos que van desde violaciones involuntarias de la privacidad hasta reforzar prejuicios sociales de raza, género, sexualidad y etnia. El estudio del sesgo algorítmico se ocupa principalmente de los algoritmos que reflejan una discriminación "sistemática e injusta". Este sesgo se ha abordado recientemente en marcos legales, como el Reglamento General de Protección de Datos de la Unión Europea (2018) y la propuesta Ley de Inteligencia Artificial (2021).

A medida que los algoritmos amplían su capacidad para organizar la sociedad, la política, las instituciones y el comportamiento, los sociólogos se han preocupado por las formas en que la producción y manipulación imprevistas de datos pueden afectar al mundo físico. Debido a que los algoritmos a menudo se consideran neutrales e imparciales, pueden proyectar de manera inexacta mayor autoridad que la experiencia humana (en parte debido al fenómeno psicológico del sesgo de automatización ) y, en algunos casos, la dependencia de los algoritmos puede desplazar la responsabilidad humana por sus resultados. El sesgo puede entrar en los sistemas algorítmicos como resultado de expectativas culturales, sociales o institucionales preexistentes; por cómo se eligen las características y etiquetas; por limitaciones técnicas de su diseño; o por ser utilizado en contextos imprevistos o por audiencias que no están consideradas en el diseño inicial del software. [2]

Se ha citado el sesgo algorítmico en casos que van desde resultados electorales hasta la difusión de discursos de odio en línea . También ha surgido en la justicia penal, la atención sanitaria y la contratación, agravando los prejuicios raciales, socioeconómicos y de género existentes. La relativa incapacidad de la tecnología de reconocimiento facial para identificar con precisión rostros de piel más oscura se ha relacionado con múltiples arrestos injustos de hombres negros, un problema derivado de conjuntos de datos desequilibrados. Persisten los problemas para comprender, investigar y descubrir sesgos algorítmicos debido a la naturaleza patentada de los algoritmos, que generalmente se tratan como secretos comerciales. Incluso cuando se proporciona total transparencia, la complejidad de ciertos algoritmos plantea una barrera para comprender su funcionamiento. Además, los algoritmos pueden cambiar o responder a entradas o salidas de maneras que no pueden anticiparse o reproducirse fácilmente para su análisis. En muchos casos, incluso dentro de un único sitio web o aplicación, no existe un único "algoritmo" que examinar, sino una red de muchos programas e entradas de datos interrelacionados, incluso entre usuarios del mismo servicio.

Definiciones

Un diagrama de 1969 sobre cómo un programa de computadora simple toma decisiones, que ilustra un algoritmo muy simple.

Los algoritmos son difíciles de definir , [3] pero generalmente pueden entenderse como listas de instrucciones que determinan cómo los programas leen, recopilan, procesan y analizan datos para generar resultados. [4] : 13  Para una introducción técnica rigurosa, consulte Algoritmos . Los avances en el hardware informático han llevado a una mayor capacidad para procesar, almacenar y transmitir datos. Esto, a su vez, ha impulsado el diseño y la adopción de tecnologías como el aprendizaje automático y la inteligencia artificial . [5] : 14–15  Al analizar y procesar datos, los algoritmos son la columna vertebral de los motores de búsqueda, [6] sitios web de redes sociales, [7] motores de recomendación, [8] venta minorista en línea, [9] publicidad en línea, [10] y más. [11]

Los científicos sociales contemporáneos se preocupan por los procesos algorítmicos integrados en aplicaciones de hardware y software debido a su impacto político y social, y cuestionan los supuestos subyacentes de la neutralidad de un algoritmo. [12] : 2  [13] : 563  [14] : 294  [15] El término sesgo algorítmico describe errores sistemáticos y repetibles que crean resultados injustos, como privilegiar a un grupo arbitrario de usuarios sobre otros. Por ejemplo, un algoritmo de calificación crediticia puede denegar un préstamo sin ser injusto, si sopesa sistemáticamente criterios financieros relevantes. Si el algoritmo recomienda préstamos a un grupo de usuarios, pero niega préstamos a otro conjunto de usuarios casi idénticos basándose en criterios no relacionados, y si este comportamiento puede repetirse en múltiples ocasiones, un algoritmo puede describirse como sesgado . [16] : 332  Este sesgo puede ser intencional o no (por ejemplo, puede provenir de datos sesgados obtenidos de un trabajador que anteriormente hizo el trabajo que el algoritmo va a hacer a partir de ahora).

Métodos

El sesgo se puede introducir en un algoritmo de varias maneras. Durante el ensamblaje de un conjunto de datos, los datos pueden recopilarse, digitalizarse, adaptarse e ingresarse en una base de datos de acuerdo con criterios de catalogación diseñados por humanos . [17] : 3  A continuación, los programadores asignan prioridades o jerarquías sobre cómo un programa evalúa y clasifica esos datos. Esto requiere decisiones humanas sobre cómo se categorizan los datos y qué datos se incluyen o descartan. [17] : 4  Algunos algoritmos recopilan sus propios datos basándose en criterios seleccionados por humanos, que también pueden reflejar el sesgo de los diseñadores humanos. [17] : 8  Otros algoritmos pueden reforzar estereotipos y preferencias a medida que procesan y muestran datos "relevantes" para usuarios humanos, por ejemplo, seleccionando información basada en elecciones previas de un usuario o grupo de usuarios similar. [17] : 6 

Más allá de recopilar y procesar datos, pueden surgir sesgos como resultado del diseño. [18] Por ejemplo, los algoritmos que determinan la asignación de recursos o el escrutinio (como determinar las ubicaciones escolares) pueden discriminar inadvertidamente una categoría al determinar el riesgo en función de usuarios similares (como en las puntuaciones de crédito). [19] : 36  Mientras tanto, los motores de recomendación que funcionan asociando usuarios con usuarios similares, o que hacen uso de rasgos de marketing inferidos, pueden depender de asociaciones inexactas que reflejan amplios estereotipos étnicos, de género, socioeconómicos o raciales. Otro ejemplo proviene de la determinación de criterios sobre lo que se incluye y se excluye de los resultados. Estos criterios podrían presentar resultados imprevistos en los resultados de búsqueda, como ocurre con el software de recomendación de vuelos que omite vuelos que no siguen las rutas de vuelo de la aerolínea patrocinadora. [18] Los algoritmos también pueden mostrar un sesgo de incertidumbre , ofreciendo evaluaciones más confiables cuando se encuentran disponibles conjuntos de datos más grandes . Esto puede sesgar los procesos algorítmicos hacia resultados que se correspondan más estrechamente con muestras más grandes, lo que puede ignorar los datos de poblaciones subrepresentadas. [20] : 4 

Historia

Primeras críticas

Esta tarjeta se utilizó para cargar software en una computadora central antigua. Cada byte (la letra 'A', por ejemplo) se introduce mediante perforaciones. Aunque las computadoras contemporáneas son más complejas, reflejan este proceso humano de toma de decisiones al recopilar y procesar datos. [21] : 70  [22] : 16 

Los primeros programas de computadora fueron diseñados para imitar el razonamiento y las deducciones humanas, y se consideraba que funcionaban cuando reproducían exitosa y consistentemente esa lógica humana. En su libro de 1976 Computer Power and Human Reason , el pionero de la inteligencia artificial Joseph Weizenbaum sugirió que el sesgo podría surgir tanto de los datos utilizados en un programa como de la forma en que se codifica un programa. [21] : 149 

Weizenbaum escribió que los programas son una secuencia de reglas creadas por humanos para que las siga una computadora. Al seguir esas reglas consistentemente, tales programas "encarnan la ley", [21] : 40  es decir, imponen una forma específica de resolver problemas. Las reglas que sigue una computadora se basan en las suposiciones de un programador sobre cómo se podrían resolver estos problemas. Eso significa que el código podría incorporar la imaginación del programador sobre cómo funciona el mundo, incluidos sus prejuicios y expectativas. [21] : 109  Si bien un programa de computadora puede incorporar sesgos de esta manera, Weizenbaum también señaló que cualquier dato ingresado a una máquina refleja además "procesos de toma de decisiones humanas" a medida que se seleccionan los datos. [21] : 70, 105 

Finalmente, señaló que las máquinas también podrían transferir buena información con consecuencias no deseadas si los usuarios no tienen claro cómo interpretar los resultados. [21] : 65  Weizenbaum advirtió contra la confianza en decisiones tomadas por programas informáticos que un usuario no comprende, comparando esa fe con la de un turista que puede encontrar el camino a una habitación de hotel exclusivamente girando a la izquierda o a la derecha al lanzar una moneda. Fundamentalmente, el turista no tiene ninguna base para comprender cómo o por qué llegó a su destino, y una llegada exitosa no significa que el proceso sea preciso o confiable. [21] : 226 

Un ejemplo temprano de sesgo algorítmico resultó en que a 60 mujeres y minorías étnicas se les negara la entrada a la Facultad de Medicina del Hospital St. George por año entre 1982 y 1986, debido a la implementación de un nuevo sistema de evaluación guiado por computadora que negaba la entrada a mujeres y hombres. con "nombres que suenan extranjeros" basados ​​en tendencias históricas en las admisiones. [23] Si bien muchas escuelas en ese momento empleaban sesgos similares en su proceso de selección, St. George se destacó por automatizar dicho sesgo mediante el uso de un algoritmo, ganando así la atención de las personas en una escala mucho más amplia.

En los últimos años, cuando más algoritmos comenzaron a utilizar métodos de aprendizaje automático en datos del mundo real, se puede encontrar con mayor frecuencia un sesgo algorítmico debido al sesgo existente en los datos.

Críticas y respuestas contemporáneas

Aunque los algoritmos bien diseñados frecuentemente determinan resultados que son igual (o más) equitativos que las decisiones de los seres humanos, todavía ocurren casos de sesgo y son difíciles de predecir y analizar. [24] La complejidad de analizar el sesgo algorítmico ha crecido junto con la complejidad de los programas y su diseño. Las decisiones tomadas por un diseñador, o por un equipo de diseñadores, pueden quedar ocultas entre los muchos fragmentos de código creados para un único programa; con el tiempo estas decisiones y su impacto colectivo en los resultados del programa pueden olvidarse. [25] : 115  En teoría, estos sesgos pueden crear nuevos patrones de comportamiento, o "guiones", en relación con tecnologías específicas a medida que el código interactúa con otros elementos de la sociedad. [26] Los sesgos también pueden afectar la forma en que la sociedad se configura en torno a los puntos de datos que requieren los algoritmos. Por ejemplo, si los datos muestran una gran cantidad de arrestos en un área particular, un algoritmo puede asignar más patrullas policiales a esa área, lo que podría generar más arrestos. [27] : 180 

Las decisiones de los programas algorítmicos pueden verse como más autoritarias que las decisiones de los seres humanos a los que deben ayudar, [28] : 15  un proceso descrito por el autor Clay Shirky como "autoridad algorítmica". [29] Shirky utiliza el término para describir "la decisión de considerar autorizado un proceso no gestionado de extracción de valor de fuentes diversas y no confiables", como los resultados de búsqueda. [29] Esta neutralidad también puede verse tergiversada por el lenguaje utilizado por los expertos y los medios de comunicación cuando los resultados se presentan al público. Por ejemplo, se puede crear una lista de noticias seleccionadas y presentadas como "de tendencia" o "populares" basándose en criterios significativamente más amplios que solo su popularidad. [17] : 14 

Debido a su conveniencia y autoridad, los algoritmos se teorizan como un medio para delegar responsabilidades fuera de los humanos. [28] : 16  [30] : 6  Esto puede tener el efecto de reducir opciones alternativas, compromisos o flexibilidad. [28] : 16  El sociólogo Scott Lash ha criticado los algoritmos como una nueva forma de "poder generativo", en el sentido de que son un medio virtual para generar fines reales. Mientras que anteriormente el comportamiento humano generaba datos para ser recopilados y estudiados, potentes algoritmos podían cada vez más dar forma y definir los comportamientos humanos. [31] : 71 

Las preocupaciones sobre el impacto de los algoritmos en la sociedad han llevado a la creación de grupos de trabajo en organizaciones como Google y Microsoft , que han co-creado un grupo de trabajo llamado Equidad, Responsabilidad y Transparencia en el Aprendizaje Automático. [32] : 115  Ideas de Google han incluido grupos comunitarios que patrullan los resultados de los algoritmos y votan para controlar o restringir los resultados que consideran que tienen consecuencias negativas. [32] : 117  En los últimos años, el estudio de la equidad, la responsabilidad y la transparencia (FAT) de los algoritmos ha surgido como su propia área de investigación interdisciplinaria con una conferencia anual llamada FAccT. [33] Los críticos han sugerido que las iniciativas FAT no pueden servir eficazmente como organismos de control independientes cuando muchas de ellas están financiadas por corporaciones que construyen los sistemas que se están estudiando. [34]

Tipos

Preexistente

El sesgo preexistente en un algoritmo es consecuencia de ideologías sociales e institucionales subyacentes . Estas ideas pueden influir o crear prejuicios personales dentro de diseñadores o programadores individuales. Estos prejuicios pueden ser explícitos y conscientes, o implícitos e inconscientes. [16] : 334  [14] : 294  Los datos de entrada mal seleccionados, o simplemente datos de una fuente sesgada, influirán en los resultados creados por las máquinas. [22] : 17  Codificar sesgos preexistentes en software puede preservar el sesgo social e institucional y, sin corrección, podría replicarse en todos los usos futuros de ese algoritmo. [25] : 116  [30] : 8 

Un ejemplo de esta forma de sesgo es el Programa de la Ley de Nacionalidad Británica, diseñado para automatizar la evaluación de nuevos ciudadanos británicos después de la Ley de Nacionalidad Británica de 1981 . [16] : 341  El programa reflejaba fielmente los principios de la ley, que establecía que "un hombre es padre sólo de sus hijos legítimos, mientras que una mujer es madre de todos sus hijos, legítimos o no". [16] : 341  [35] : 375  En su intento de transferir una lógica particular a un proceso algorítmico, el BNAP inscribió la lógica de la Ley de Nacionalidad Británica en su algoritmo, lo que la perpetuaría incluso si la ley fuera finalmente derogada. [16] : 342 

Otra fuente de sesgo, que se ha denominado "sesgo de elección de etiquetas", [36] surge cuando se utilizan medidas indirectas para entrenar algoritmos, que generan sesgos contra ciertos grupos. Por ejemplo, un algoritmo ampliamente utilizado predijo los costos de la atención médica como indicador de las necesidades de atención médica y utilizó predicciones para asignar recursos para ayudar a los pacientes con necesidades de salud complejas. Esto introdujo un sesgo porque los pacientes negros tienen costos más bajos, incluso cuando son tan poco saludables como los pacientes blancos [37]. Las soluciones al "sesgo de elección de etiquetas" tienen como objetivo hacer coincidir más el objetivo real (lo que predice el algoritmo) con el objetivo ideal. (lo que los investigadores quieren que prediga el algoritmo), por lo que, en el ejemplo anterior, en lugar de predecir el costo, los investigadores se centrarían en la variable de las necesidades de atención médica, que es bastante más significativa. El ajuste del objetivo llevó a que casi se duplicara el número de pacientes negros seleccionados para el programa. [36]

Sesgo de aprendizaje automático

El sesgo del aprendizaje automático se refiere a disparidades sistemáticas e injustas en el resultado de los algoritmos de aprendizaje automático. Estos sesgos pueden manifestarse de varias maneras y, a menudo, son un reflejo de los datos utilizados para entrenar estos algoritmos. A continuación se detallan algunos aspectos clave:

Sesgo del lenguaje

El sesgo de idioma se refiere a un tipo de sesgo de muestreo estadístico vinculado al idioma de una consulta que conduce a "una desviación sistemática en la información de muestreo que impide que represente con precisión la verdadera cobertura de los temas y vistas disponibles en su repositorio". [38] El trabajo de Luo et al. [38] muestra que los grandes modelos lingüísticos actuales, al estar formados predominantemente con datos en inglés, a menudo presentan las opiniones angloamericanas como verdad, mientras que sistemáticamente minimizan las perspectivas no inglesas como irrelevantes. , mal o ruido. Cuando se le pregunta sobre ideologías políticas como "¿Qué es el liberalismo?", ChatGPT, tal como se formó con datos centrados en inglés, describe el liberalismo desde la perspectiva angloamericana, enfatizando aspectos de los derechos humanos y la igualdad, mientras que aspectos igualmente válidos como "se opone al estado" "intervención en la vida personal y económica" desde la perspectiva vietnamita dominante y "limitación del poder del gobierno" desde la perspectiva china predominante están ausentes. [38]

Los prejuicios de género

El sesgo de género se refiere a la tendencia de estos modelos a producir productos que tienen prejuicios injustos hacia un género sobre otro. Este sesgo suele surgir de los datos con los que se entrenan estos modelos. Por ejemplo, los grandes modelos lingüísticos suelen asignar roles y características basándose en normas tradicionales de género; podría asociar a enfermeras o secretarias predominantemente con mujeres y a ingenieros o directores ejecutivos con hombres. [39] [40]

estereotipos

Más allá del género y la raza, estos modelos pueden reforzar una amplia gama de estereotipos, incluidos los basados ​​en la edad, la nacionalidad, la religión o la ocupación. Esto puede conducir a resultados que generalicen o caricaturicen injustamente a grupos de personas, a veces de manera dañina o despectiva. [41]

Sesgo político

El sesgo político se refiere a la tendencia de los algoritmos a favorecer sistemáticamente ciertos puntos de vista, ideologías o resultados políticos sobre otros. Los modelos lingüísticos también pueden presentar sesgos políticos. Dado que los datos de capacitación incluyen una amplia gama de opiniones y coberturas políticas, los modelos pueden generar respuestas que se inclinen hacia ideologías o puntos de vista políticos particulares, dependiendo de la prevalencia de esos puntos de vista en los datos. [42]

Técnico

Se descubrió que el software de reconocimiento facial utilizado junto con las cámaras de vigilancia mostraba un sesgo al reconocer rostros asiáticos y negros sobre rostros blancos. [27] : 191 

El sesgo técnico surge a través de las limitaciones de un programa, la potencia computacional, su diseño u otra restricción del sistema. [16] : 332  Este sesgo también puede ser una restricción de diseño; por ejemplo, se puede entender que un motor de búsqueda que muestra tres resultados por pantalla privilegia los tres primeros resultados ligeramente más que los tres siguientes, como en el caso de una visualización de precios de aerolíneas. [16] : 336  Otro caso es el software que se basa en la aleatoriedad para realizar distribuciones justas de resultados. Si el mecanismo de generación de números aleatorios no es verdaderamente aleatorio, puede introducir sesgos, por ejemplo, al sesgar las selecciones hacia elementos al final o al principio de una lista. [16] : 332 

Un algoritmo descontextualizado utiliza información no relacionada para ordenar los resultados; por ejemplo, un algoritmo de fijación de precios de vuelos que ordena los resultados por orden alfabético estaría sesgado a favor de American Airlines sobre United Airlines. [16] : 332  También puede aplicarse lo contrario, en el que los resultados se evalúan en contextos diferentes a los que se recogen. Los datos pueden recopilarse sin un contexto externo crucial: por ejemplo, cuando las cámaras de vigilancia utilizan software de reconocimiento facial , pero lo evalúa personal remoto en otro país o región, o lo evalúan algoritmos no humanos sin conocimiento de lo que sucede más allá del alcance de la cámara. campo visual . Esto podría crear una comprensión incompleta de la escena del crimen, lo que podría, por ejemplo, confundir a los transeúntes con quienes cometen el crimen. [13] : 574 

Por último, se puede crear un sesgo técnico al intentar formalizar las decisiones en pasos concretos bajo el supuesto de que el comportamiento humano funciona de la misma manera. Por ejemplo, el software sopesa los puntos de datos para determinar si un acusado debe aceptar un acuerdo de culpabilidad, ignorando el impacto de las emociones en el jurado. [16] : 332  Otro resultado no deseado de esta forma de sesgo se encontró en el software de detección de plagio Turnitin , que compara textos escritos por estudiantes con información encontrada en línea y devuelve una puntuación de probabilidad de que el trabajo del estudiante sea copiado. Debido a que el software compara largas cadenas de texto, es más probable que identifique hablantes no nativos de inglés que hablantes nativos, ya que este último grupo podría ser más capaz de cambiar palabras individuales, dividir cadenas de texto plagiado u oscurecer pasajes copiados. sinónimos. Debido a que es más fácil para los hablantes nativos evadir la detección como resultado de las limitaciones técnicas del software, esto crea un escenario en el que Turnitin identifica a los hablantes extranjeros de inglés por plagio y al mismo tiempo permite que más hablantes nativos evadan la detección. [28] : 21-22 

Emergente

El sesgo emergente es el resultado del uso y la dependencia de algoritmos en contextos nuevos o imprevistos. [16] : 334  Es posible que los algoritmos no se hayan ajustado para considerar nuevas formas de conocimiento, como nuevos medicamentos o avances médicos, nuevas leyes, modelos comerciales o normas culturales cambiantes. [16] : 334, 336  Esto puede excluir a grupos a través de la tecnología, sin proporcionar esquemas claros para entender quién es el responsable de su exclusión. [27] : 179  [14] : 294  De manera similar, pueden surgir problemas cuando los datos de entrenamiento (las muestras "alimentadas" a una máquina, mediante las cuales modela ciertas conclusiones) no se alinean con los contextos que un algoritmo encuentra en el mundo real. [43]

En 1990, se identificó un ejemplo de sesgo emergente en el software utilizado para colocar a estudiantes de medicina estadounidenses en residencias, el Programa Nacional de Coincidencia de Residencia (NRMP). [16] : 338  El algoritmo fue diseñado en un momento en el que pocas parejas casadas buscaban residencias juntas. A medida que más mujeres ingresaban a las facultades de medicina, era probable que más estudiantes solicitaran una residencia junto con sus parejas. El proceso requirió que cada solicitante proporcionara una lista de preferencias de ubicación en los EE. UU., que luego se clasificó y asignó cuando un hospital y un solicitante acordaron una coincidencia. En el caso de parejas casadas en las que ambos buscaron residencia, el algoritmo sopesó primero las opciones de ubicación de la pareja mejor calificada. El resultado fue una asignación frecuente de escuelas de alta preferencia al primer socio y de escuelas de menor preferencia al segundo socio, en lugar de buscar compromisos en la preferencia de ubicación. [16] : 338  [44]

Los sesgos emergentes adicionales incluyen:

Correlaciones

Pueden surgir correlaciones impredecibles cuando se comparan grandes conjuntos de datos entre sí. Por ejemplo, los datos recopilados sobre patrones de navegación web pueden alinearse con señales que marcan datos confidenciales (como raza u orientación sexual). Al seleccionar según ciertos patrones de comportamiento o navegación, el efecto final sería casi idéntico a la discriminación mediante el uso de datos directos de raza u orientación sexual. [20] : 6  En otros casos, el algoritmo saca conclusiones de las correlaciones, sin poder comprender esas correlaciones. Por ejemplo, un programa de clasificación dio menor prioridad a los asmáticos que tenían neumonía que a los asmáticos que no tenían neumonía. El algoritmo del programa hizo esto porque simplemente comparó las tasas de supervivencia: los asmáticos con neumonía tienen el mayor riesgo. Históricamente, por esta misma razón, los hospitales suelen brindar a estos asmáticos la mejor y más inmediata atención. [45] [ se necesita aclaración ]

Usos inesperados

Puede producirse un sesgo emergente cuando un algoritmo es utilizado por audiencias imprevistas. Por ejemplo, las máquinas pueden requerir que los usuarios sepan leer, escribir o comprender números, o relacionarse con una interfaz utilizando metáforas que no comprenden. [16] : 334  Estas exclusiones pueden agravarse a medida que la tecnología sesgada o excluyente se integra más profundamente en la sociedad. [27] : 179 

Aparte de la exclusión, pueden surgir usos imprevistos si el usuario final confía en el software en lugar de en su propio conocimiento. En un ejemplo, un grupo de usuarios inesperado provocó un sesgo algorítmico en el Reino Unido, cuando científicos informáticos y abogados de inmigración crearon el Programa de Ley Nacional Británica como prueba de concepto para evaluar la idoneidad para la ciudadanía británica . Los diseñadores tenían acceso a conocimientos jurídicos más allá de los usuarios finales de las oficinas de inmigración, cuya comprensión tanto del software como de las leyes de inmigración probablemente no habría sido sofisticada. Los agentes que administraron las preguntas se basaron completamente en el software, que excluía vías alternativas hacia la ciudadanía, y utilizaron el software incluso después de que nuevas jurisprudencias e interpretaciones legales hicieran que el algoritmo quedara obsoleto. Como resultado del diseño de un algoritmo para usuarios que se suponía tenían conocimientos legales sobre las leyes de inmigración, el algoritmo del software generó indirectamente un sesgo a favor de los solicitantes que cumplían con un conjunto muy limitado de criterios legales establecidos por el algoritmo, en lugar de los criterios más amplios. de la ley de inmigración británica. [16] : 342 

Circuitos de retroalimentacion

El sesgo emergente también puede crear un bucle de retroalimentación , o recursividad, si los datos recopilados para un algoritmo dan como resultado respuestas del mundo real que se retroalimentan al algoritmo. [46] [47] Por ejemplo, las simulaciones del software policial predictivo (PredPol), implementado en Oakland, California, sugirieron una mayor presencia policial en los vecindarios negros según los datos sobre delitos informados por el público. [48] ​​La simulación mostró que el público denunciaba delitos basándose en la vista de los coches de policía, independientemente de lo que estuviera haciendo la policía. La simulación interpretó los avistamientos de coches de policía al modelar sus predicciones de criminalidad y, a su vez, asignaría un aumento aún mayor de la presencia policial dentro de esos vecindarios. [46] [49] [50] El Grupo de Análisis de Datos de Derechos Humanos , que llevó a cabo la simulación, advirtió que en lugares donde la discriminación racial es un factor en los arrestos, tales circuitos de retroalimentación podrían reforzar y perpetuar la discriminación racial en la actuación policial. [47] Otro ejemplo bien conocido de un algoritmo que muestra tal comportamiento es COMPAS , un software que determina la probabilidad de que un individuo se convierta en un delincuente. El software a menudo es criticado por etiquetar a los individuos negros como delincuentes con mucha más probabilidad que otros, y luego se retroalimenta con los datos en caso de que los individuos se conviertan en delincuentes registrados, lo que refuerza aún más el sesgo creado por el conjunto de datos sobre el que actúa el algoritmo.

Los sistemas de recomendación, como los que se utilizan para recomendar vídeos o artículos de noticias en línea, pueden crear bucles de retroalimentación. [51] Cuando los usuarios hacen clic en el contenido sugerido por algoritmos, influye en el siguiente conjunto de sugerencias. [52] Con el tiempo, esto puede llevar a que los usuarios entren en una burbuja de filtro y no se den cuenta de contenido importante o útil. [53] [54]

Impacto

Influencias comerciales

Los algoritmos corporativos podrían estar sesgados para favorecer de forma invisible acuerdos financieros o acuerdos entre empresas, sin el conocimiento de un usuario que pueda confundir el algoritmo como imparcial. Por ejemplo, American Airlines creó un algoritmo de búsqueda de vuelos en la década de 1980. El software presentaba a los clientes una gama de vuelos de varias aerolíneas, pero sopesaba los factores que impulsaban sus propios vuelos, independientemente del precio o la conveniencia. En testimonio ante el Congreso de los Estados Unidos , el presidente de la aerolínea afirmó rotundamente que el sistema fue creado con la intención de obtener una ventaja competitiva a través de un trato preferencial. [55] : 2  [16] : 331 

En un artículo de 1998 que describe a Google , los fundadores de la empresa habían adoptado una política de transparencia en los resultados de búsqueda con respecto a la colocación paga, argumentando que "los motores de búsqueda financiados con publicidad estarán inherentemente sesgados hacia los anunciantes y lejos de las necesidades de los consumidores". [56] Este sesgo sería una manipulación "invisible" del usuario. [55] : 3 

Comportamiento electoral

Una serie de estudios sobre votantes indecisos en Estados Unidos y la India encontraron que los resultados de los motores de búsqueda podían cambiar los resultados de la votación en aproximadamente un 20%. Los investigadores concluyeron que los candidatos "no tienen medios para competir" si un algoritmo, con o sin intención, impulsaba los listados de páginas de un candidato rival. [57] Los usuarios de Facebook que vieron mensajes relacionados con la votación tenían más probabilidades de votar. Una prueba aleatoria de usuarios de Facebook realizada en 2010 mostró un aumento del 20% (340.000 votos) entre los usuarios que vieron mensajes animando a votar, así como imágenes de sus amigos que habían votado. [58] El jurista Jonathan Zittrain ha advertido que esto podría crear un efecto de "gerrymandering digital" en las elecciones, "la presentación selectiva de información por parte de un intermediario para cumplir su agenda, en lugar de servir a sus usuarios", si se manipula intencionalmente. [59] : 335 

Discriminación de género

En 2016, se descubrió que el sitio de redes profesionales LinkedIn recomendaba variaciones masculinas de nombres de mujeres en respuesta a consultas de búsqueda. El sitio no hizo recomendaciones similares en la búsqueda de nombres masculinos. Por ejemplo, "Andrea" mostraría un mensaje preguntando si los usuarios querían encontrar "Andrew", pero las consultas sobre "Andrew" no preguntaban si los usuarios querían encontrar "Andrea". La compañía dijo que esto fue el resultado de un análisis de las interacciones de los usuarios con el sitio. [60]

En 2012, la franquicia de grandes almacenes Target fue citada por recopilar puntos de datos para inferir cuándo las clientas estaban embarazadas, incluso si no lo habían anunciado, y luego compartir esa información con socios de marketing. [61] : 94  [62] Debido a que los datos habían sido predichos, en lugar de observados o informados directamente, la empresa no tenía obligación legal de proteger la privacidad de esos clientes. [61] : 98 

Los algoritmos de búsqueda web también han sido acusados ​​de parcialidad. Los resultados de Google pueden priorizar el contenido pornográfico en términos de búsqueda relacionados con la sexualidad, por ejemplo, "lesbiana". Este sesgo se extiende al motor de búsqueda que muestra contenido popular pero sexualizado en búsquedas neutrales. Por ejemplo, los artículos "Las 25 mujeres atletas más sexys" se muestran como resultados de la primera página en las búsquedas de "mujeres atletas". [63] : 31  En 2017, Google ajustó estos resultados junto con otros que revelaron grupos de odio , opiniones racistas, abuso infantil y pornografía, y otro contenido molesto y ofensivo. [64] Otros ejemplos incluyen la visualización de trabajos mejor remunerados a los solicitantes masculinos en sitios web de búsqueda de empleo. [65] Los investigadores también han identificado que la traducción automática muestra una fuerte tendencia hacia los valores predeterminados masculinos. [66] En particular, esto se observa en campos vinculados a una distribución desequilibrada de género, incluidas las ocupaciones STEM . [67] De hecho, los sistemas de traducción automática actuales no logran reproducir la distribución mundial real de trabajadoras. [68]

En 2015, Amazon.com desactivó un sistema de inteligencia artificial que desarrolló para evaluar solicitudes de empleo cuando se dio cuenta de que estaba sesgado en contra de las mujeres. [69] La herramienta de contratación excluyó a los solicitantes que asistieron a universidades exclusivamente para mujeres y currículums que incluían la palabra "para mujeres". [70] Un problema similar surgió con los servicios de transmisión de música: en 2019, se descubrió que el algoritmo del sistema de recomendación utilizado por Spotify estaba sesgado contra las mujeres artistas. [71] Las recomendaciones de canciones de Spotify sugirieron más artistas masculinos que mujeres.

Discriminación racial y étnica

Los algoritmos han sido criticados como método para ocultar los prejuicios raciales en la toma de decisiones. [72] [73] [74] : 158  Debido a cómo se trataron ciertas razas y grupos étnicos en el pasado, los datos a menudo pueden contener sesgos ocultos. [75] Por ejemplo, es probable que los negros reciban sentencias más largas que los blancos que cometieron el mismo delito. [76] [77] Esto podría significar potencialmente que un sistema amplifica los sesgos originales en los datos.

En 2015, Google se disculpó cuando los usuarios negros se quejaron de que un algoritmo de identificación de imágenes en su aplicación Fotos los identificaba como gorilas . [78] En 2010, las cámaras Nikon fueron criticadas cuando los algoritmos de reconocimiento de imágenes preguntaban constantemente a los usuarios asiáticos si estaban parpadeando. [79] Estos ejemplos son producto del sesgo en los conjuntos de datos biométricos . [78] Los datos biométricos se extraen de aspectos del cuerpo, incluidos rasgos raciales observados o inferidos, que luego pueden transferirse a puntos de datos. [74] : 154  La tecnología de reconocimiento de voz puede tener diferentes precisiones dependiendo del acento del usuario. Esto puede deberse a la falta de datos sobre la formación de los hablantes de ese acento. [80]

Los datos biométricos sobre la raza también pueden inferirse, en lugar de observarse. Por ejemplo, un estudio de 2012 mostró que los nombres comúnmente asociados con negros tenían más probabilidades de generar resultados de búsqueda que implicaran registros de arresto, independientemente de si existe algún registro policial del nombre de ese individuo. [81] Un estudio de 2015 también encontró que se supone que las personas negras y asiáticas tienen pulmones con menor funcionamiento debido a que los datos de exposición racial y ocupacional no se incorporan en el modelo de función pulmonar del algoritmo de predicción. [82] [83]

En 2019, un estudio de investigación reveló que un algoritmo de atención médica vendido por Optum favorecía a los pacientes blancos sobre los pacientes negros más enfermos. El algoritmo predice cuánto le costarían los pacientes al sistema sanitario en el futuro. Sin embargo, el costo no es neutral en cuanto a raza, ya que los pacientes negros incurrieron alrededor de $1,800 menos en costos médicos por año que los pacientes blancos con la misma cantidad de enfermedades crónicas, lo que llevó al algoritmo a calificar a los pacientes blancos con el mismo riesgo de sufrir problemas de salud futuros que los negros. pacientes que padecían significativamente más enfermedades. [84]

Un estudio realizado por investigadores de UC Berkeley en noviembre de 2019 reveló que los algoritmos hipotecarios han sido discriminatorios hacia los latinos y afroamericanos, que discriminaban a las minorías en función de la "solvencia crediticia", que se basa en la ley de préstamos justos de EE. UU. que permite a los prestamistas utilizar medidas de identificación. para determinar si un individuo es digno de recibir préstamos. Estos algoritmos particulares estaban presentes en las empresas FinTech y se demostró que discriminaban a las minorías. [85] [ se necesita fuente no primaria ]

Aplicación de la ley y procedimientos legales

Los algoritmos ya tienen numerosas aplicaciones en los sistemas legales. Un ejemplo de esto es COMPAS , un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . ProPublica afirma que el nivel de riesgo de reincidencia promedio asignado por COMPAS a los acusados ​​negros es significativamente mayor que el nivel de riesgo promedio asignado por COMPAS a los acusados ​​blancos, y que a los acusados ​​negros tienen el doble de probabilidades de que se les asigne erróneamente la etiqueta de "alto riesgo" que a los blancos. acusados. [86] [87]

Un ejemplo es el uso de evaluaciones de riesgo en las sentencias penales en los Estados Unidos y en las audiencias de libertad condicional ; a los jueces se les presentó una puntuación generada algorítmicamente destinada a reflejar el riesgo de que un preso repita un delito. [88] Durante el período que comenzó en 1920 y terminó en 1970, la nacionalidad del padre de un criminal fue una consideración en esas puntuaciones de evaluación de riesgos. [89] : 4  Hoy en día, estos puntajes se comparten con jueces en Arizona, Colorado, Delaware, Kentucky, Luisiana, Oklahoma, Virginia, Washington y Wisconsin. Una investigación independiente realizada por ProPublica encontró que las puntuaciones eran inexactas el 80% de las veces y estaban desproporcionadamente sesgadas para sugerir que los negros estaban en riesgo de recaída, un 77% más a menudo que los blancos. [88]

Un estudio que se propuso examinar "Riesgo, raza y reincidencia: sesgo predictivo e impacto dispar" alega una probabilidad adversa doble (45 por ciento frente a 23 por ciento) de que los acusados ​​negros frente a los caucásicos sean clasificados erróneamente como si imponen un mayor riesgo. a pesar de haber permanecido objetivamente sin ninguna reincidencia documentada durante un período de observación de dos años. [90]

En el contexto de la detención preventiva, un artículo de revisión de leyes sostiene que las evaluaciones de riesgo algorítmicas violan los derechos de Igualdad de Protección de la 14ª Enmienda por motivos de raza, ya que se argumenta que los algoritmos son aparentemente discriminatorios, dan como resultado un trato desigual y no están específicamente diseñados. [91]

Discurso de odio en línea

En 2017, se descubrió que un algoritmo de Facebook diseñado para eliminar el discurso de odio en línea beneficiaba a los hombres blancos sobre los niños negros al evaluar contenido objetable, según documentos internos de Facebook. [92] El algoritmo, que es una combinación de programas informáticos y revisores de contenido humanos, se creó para proteger categorías amplias en lugar de subconjuntos específicos de categorías. Por ejemplo, se bloquearían las publicaciones que denuncien a los "musulmanes", mientras que se permitirían las publicaciones que denuncien a los "musulmanes radicales". Un resultado inesperado del algoritmo es permitir el discurso de odio contra los niños negros, porque denuncian al subconjunto de negros "niños", en lugar de "todos los negros", mientras que "todos los hombres blancos" desencadenaría un bloqueo, porque los blancos y los hombres no son considerados subconjuntos. [92] También se descubrió que Facebook permitía a los compradores de anuncios dirigirse a los "que odian a los judíos" como una categoría de usuarios, lo que, según la compañía, era un resultado inadvertido de los algoritmos utilizados para evaluar y categorizar los datos. El diseño de la empresa también permitió a los compradores de anuncios impedir que los afroamericanos vieran anuncios de viviendas. [93]

Si bien se utilizan algoritmos para rastrear y bloquear el discurso de odio, se descubrió que algunos tenían 1,5 veces más probabilidades de marcar información publicada por usuarios negros y 2,2 veces más probabilidades de marcar información como discurso de odio si estaba escrita en inglés afroamericano . [94] Se señalaron sin contexto los insultos y epítetos, incluso cuando fueron utilizados por comunidades que se han reapropiado de ellos. [95]

Vigilancia

El software de las cámaras de vigilancia puede considerarse intrínsecamente político porque requiere algoritmos para distinguir comportamientos normales de anormales y para determinar quién debe estar en determinados lugares en determinados momentos. [13] : 572  Se ha demostrado que la capacidad de dichos algoritmos para reconocer rostros en todo un espectro racial está limitada por la diversidad racial de las imágenes en su base de datos de entrenamiento; Si la mayoría de las fotos pertenecen a una raza o género, el software reconoce mejor a otros miembros de esa raza o género. [96] Sin embargo, incluso las auditorías de estos sistemas de reconocimiento de imágenes son éticamente complicadas, y algunos académicos han sugerido que el contexto de la tecnología siempre tendrá un impacto desproporcionado en las comunidades cuyas acciones están sobrevigiladas. [97] Por ejemplo, un análisis realizado en 2002 del software utilizado para identificar personas en imágenes de CCTV encontró varios ejemplos de sesgo cuando se compararon con bases de datos criminales. Se evaluó que el software identificaba a los hombres con más frecuencia que a las mujeres, a las personas mayores con más frecuencia que a los jóvenes e identificaba a los asiáticos, afroamericanos y otras razas con más frecuencia que a los blancos. [27] : 190  Un estudio de 2018 encontró que el software de reconocimiento facial probablemente identificaba con precisión a los hombres de piel clara (típicamente europeos), con tasas de precisión ligeramente más bajas para las mujeres de piel clara. Los hombres y mujeres de piel oscura tenían significativamente menos probabilidades de ser identificados con precisión mediante el software de reconocimiento facial. Estas disparidades se atribuyen a la subrepresentación de participantes de piel más oscura en los conjuntos de datos utilizados para desarrollar este software. [98] [99]

Discriminación contra la comunidad LGBTQ

En 2011, los usuarios de la aplicación de encuentros gay Grindr informaron que el algoritmo de recomendación de la tienda de Android vinculaba Grindr con aplicaciones diseñadas para encontrar delincuentes sexuales, que, según los críticos, relacionaban incorrectamente la homosexualidad con la pedofilia . El escritor Mike Ananny criticó esta asociación en The Atlantic , argumentando que tales asociaciones estigmatizaban aún más a los hombres homosexuales . [100] En 2009, el minorista en línea Amazon eliminó de la lista 57.000 libros después de que un cambio algorítmico amplió su lista negra de "contenido para adultos" para incluir cualquier libro que abordara la sexualidad o temas homosexuales, como la novela aclamada por la crítica Brokeback Mountain . [101] [17] : 5  [102]

En 2019, se descubrió que en Facebook, las búsquedas de "fotos de mis amigas" arrojaban sugerencias como "en bikini" o "en la playa". Por el contrario, las búsquedas de "fotos de mis amigos varones" no arrojaron resultados. [103]

Se ha observado que la tecnología de reconocimiento facial causa problemas a las personas transgénero. En 2018, hubo informes de conductores de Uber que eran transgénero o en transición y que experimentaron dificultades con el software de reconocimiento facial que Uber implementa como medida de seguridad incorporada. Como resultado de esto, algunas de las cuentas de conductores trans de Uber fueron suspendidas, lo que les costó tarifas y potencialmente un trabajo, todo debido a que el software de reconocimiento facial experimentó dificultades para reconocer el rostro de un conductor trans que estaba en transición. [104] Aunque la solución a este problema parecería ser incluir personas trans en conjuntos de entrenamiento para modelos de aprendizaje automático, una instancia de videos trans de YouTube que se recopilaron para usarse en datos de entrenamiento no recibió el consentimiento de las personas trans que se incluyeron. en los vídeos, lo que creó un problema de violación de la privacidad. [105]

También hubo un estudio realizado en la Universidad de Stanford en 2017 que probó algoritmos en un sistema de aprendizaje automático que, según se decía, podía detectar la orientación sexual de un individuo en función de sus imágenes faciales. [106] El modelo del estudio predijo una distinción correcta entre hombres homosexuales y heterosexuales el 81% de las veces, y una distinción correcta entre mujeres homosexuales y heterosexuales el 74% de las veces. Este estudio provocó una reacción violenta de la comunidad LGBTQIA, que temía las posibles repercusiones negativas que este sistema de inteligencia artificial podría tener en las personas de la comunidad LGBTQIA al ponerlas en riesgo de ser "expuestas" contra su voluntad. [107]

Discriminación por discapacidad

Si bien las modalidades de equidad algorítmica se han juzgado sobre la base de diferentes aspectos del sesgo (como el género, la raza y el nivel socioeconómico), la discapacidad a menudo queda fuera de la lista. [108] [109] La marginación que enfrentan actualmente las personas con discapacidad en la sociedad se está traduciendo en sistemas y algoritmos de inteligencia artificial, creando aún más exclusión [110] [111]

La naturaleza cambiante de las discapacidades y su caracterización subjetiva hace que sea más difícil abordarlas computacionalmente. La falta de profundidad histórica a la hora de definir las discapacidades, recopilar su incidencia y prevalencia en cuestionarios y establecer su reconocimiento aumenta la controversia y la ambigüedad en su cuantificación y cálculos. La definición de discapacidad ha sido debatida durante mucho tiempo, pasando de un modelo médico a un modelo social de discapacidad más recientemente, que establece que la discapacidad es el resultado de la falta de coincidencia entre las interacciones de las personas y las barreras en su entorno, en lugar de deficiencias y condiciones de salud. Las discapacidades también pueden ser situacionales o temporales, [112] consideradas en un estado de cambio constante. Las discapacidades son increíblemente diversas, [113] caen dentro de un amplio espectro y pueden ser únicas para cada individuo. La identidad de las personas puede variar según los tipos específicos de discapacidad que experimentan, cómo utilizan las tecnologías de asistencia y a quién apoyan. El alto nivel de variabilidad entre las experiencias de las personas personaliza en gran medida cómo se puede manifestar una discapacidad. Las identidades superpuestas y las experiencias interseccionales [114] están excluidas de las estadísticas y conjuntos de datos, [115] por lo que están subrepresentadas y son inexistentes en los datos de capacitación. [116] Por lo tanto, los modelos de aprendizaje automático se entrenan de manera inequitativa y los sistemas de inteligencia artificial perpetúan más sesgos algorítmicos. [117] Por ejemplo, si las personas con discapacidades del habla no están incluidas en el entrenamiento de funciones de control de voz y asistentes inteligentes de IA, no pueden usar la función o las respuestas recibidas de Google Home o Alexa son extremadamente pobres.

Dados los estereotipos y estigmas que todavía existen en torno a las discapacidades, la naturaleza delicada de revelar estas características identificativas también conlleva grandes desafíos en materia de privacidad. Dado que revelar información sobre discapacidad puede ser tabú e impulsar una mayor discriminación contra esta población, faltan datos explícitos sobre discapacidad disponibles con los que puedan interactuar los sistemas algorítmicos. Las personas con discapacidad enfrentan daños y riesgos adicionales con respecto a su apoyo social, el costo del seguro médico, la discriminación en el lugar de trabajo y otras necesidades básicas al revelar su estado de discapacidad. Los algoritmos están exacerbando aún más esta brecha al recrear los sesgos que ya existen en los sistemas y estructuras sociales. [118] [119]

Búsqueda de Google

Si bien los usuarios generan resultados que se "completan" automáticamente, Google no ha eliminado el texto de autocompletado sexista y racista. Por ejemplo, Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo Safiya Noble señala un ejemplo de la búsqueda de "chicas negras", que, según se informó, dio como resultado imágenes pornográficas. Google afirmó que no podía borrar esas páginas a menos que se consideraran ilegales. [120]

Obstáculos para la investigación

Varios problemas impiden el estudio del sesgo algorítmico a gran escala, lo que dificulta la aplicación de estudios académicamente rigurosos y la comprensión pública. [12] : 5  [121] [122]

Definiendo justicia

La literatura sobre el sesgo algorítmico se ha centrado en la solución de la equidad, pero las definiciones de equidad a menudo son incompatibles entre sí y con las realidades de la optimización del aprendizaje automático. Por ejemplo, definir la justicia como una "igualdad de resultados" puede referirse simplemente a un sistema que produce el mismo resultado para todas las personas, mientras que la justicia definida como "igualdad de trato" podría considerar explícitamente las diferencias entre individuos. [123] : 2  Como resultado, a veces se describe que la equidad está en conflicto con la precisión de un modelo, lo que sugiere tensiones innatas entre las prioridades del bienestar social y las prioridades de los proveedores que diseñan estos sistemas. [124] : 2  En respuesta a esta tensión, los investigadores han sugerido que se preste más atención al diseño y uso de sistemas que se basan en algoritmos potencialmente sesgados, con la "equidad" definida para aplicaciones y contextos específicos. [125]

Complejidad

Los procesos algorítmicos son complejos y muchas veces exceden la comprensión de las personas que los utilizan. [12] : 2  [126] : 7  Es posible que las operaciones a gran escala no sean comprendidas ni siquiera por aquellos involucrados en su creación. [127] Los métodos y procesos de los programas contemporáneos a menudo se ven oscurecidos por la incapacidad de conocer cada permutación de la entrada o salida de un código. [27] : 183  El científico social Bruno Latour ha identificado este proceso como blackboxing , un proceso en el que "el trabajo científico y técnico se vuelve invisible por su propio éxito. Cuando una máquina funciona eficientemente, cuando una cuestión de hecho está resuelta, es necesario concentrarse". sólo en sus entradas y salidas y no en su complejidad interna. Así, paradójicamente, cuanto más triunfan la ciencia y la tecnología, más opacas y oscuras se vuelven". [128] Otros han criticado la metáfora de la caja negra, sugiriendo que los algoritmos actuales no son una caja negra, sino una red de otras interconectadas. [129] : 92 

Un ejemplo de esta complejidad se puede encontrar en la variedad de entradas para personalizar la retroalimentación. El sitio de medios sociales Facebook tuvo en cuenta al menos 100.000 puntos de datos para determinar el diseño del feed de medios sociales de un usuario en 2013. [130] Además, grandes equipos de programadores pueden operar relativamente aislados unos de otros y no ser conscientes de los efectos acumulativos. de pequeñas decisiones dentro de algoritmos elaborados y conectados. [25] : 118  No todo el código es original y puede tomarse prestado de otras bibliotecas, creando un conjunto complicado de relaciones entre el procesamiento de datos y los sistemas de entrada de datos. [5] : 22 

Se produce una complejidad adicional a través del aprendizaje automático y la personalización de algoritmos basados ​​en las interacciones del usuario, como clics, tiempo pasado en el sitio y otras métricas. Estos ajustes personales pueden confundir los intentos generales de comprender los algoritmos. [131] : 367  [126] : 7  Un servicio de transmisión de radio no identificado informó que utilizó cinco algoritmos únicos de selección de música que seleccionó para sus usuarios, en función de su comportamiento. Esto crea diferentes experiencias de los mismos servicios de transmisión entre diferentes usuarios, lo que dificulta entender qué hacen estos algoritmos. [12] : 5  Las empresas también realizan pruebas A/B frecuentes para ajustar los algoritmos en función de la respuesta del usuario. Por ejemplo, el motor de búsqueda Bing puede ejecutar hasta diez millones de variaciones sutiles de su servicio por día, creando diferentes experiencias del servicio entre cada uso y/o usuario. [12] : 5 

Falta de transparencia

Los algoritmos comerciales son propietarios y pueden tratarse como secretos comerciales . [12] : 2  [126] : 7  [27] : 183  Tratar los algoritmos como secretos comerciales protege a las empresas, como los motores de búsqueda , donde un algoritmo transparente podría revelar tácticas para manipular las clasificaciones de búsqueda. [131] : 366  Esto dificulta que los investigadores realicen entrevistas o análisis para descubrir cómo funcionan los algoritmos. [5] : 20  Los críticos sugieren que tal secreto también puede oscurecer posibles métodos poco éticos utilizados en la producción o procesamiento de resultados algorítmicos. [131] : 369  Otros críticos, como la abogada y activista Katarzyna Szymielewicz, han sugerido que la falta de transparencia a menudo se disfraza como resultado de la complejidad algorítmica, protegiendo a las empresas de revelar o investigar sus propios procesos algorítmicos. [132]

Falta de datos sobre categorías sensibles

Una barrera importante para comprender cómo abordar el sesgo en la práctica es que las categorías, como la demografía de las personas protegidas por la ley contra la discriminación , a menudo no se consideran explícitamente al recopilar y procesar datos. [133] En algunos casos, hay pocas oportunidades de recopilar estos datos explícitamente, como en la toma de huellas dactilares de dispositivos , la computación ubicua y el Internet de las cosas . En otros casos, es posible que el responsable del tratamiento no desee recopilar dichos datos por motivos de reputación o porque representa una mayor responsabilidad y riesgo de seguridad. También puede darse el caso de que, al menos en relación con el Reglamento General de Protección de Datos de la Unión Europea , dichos datos entren en las disposiciones de "categoría especial" (Artículo 9) y, por lo tanto, tengan más restricciones en cuanto a su posible recopilación y procesamiento.

Algunos profesionales han tratado de estimar e imputar estas categorizaciones sensibles faltantes para permitir la mitigación del sesgo, por ejemplo, creando sistemas para inferir el origen étnico a partir de los nombres, [134] sin embargo, esto puede introducir otras formas de sesgo si no se lleva a cabo con cuidado. [135] Los investigadores del aprendizaje automático han recurrido a tecnologías criptográficas que mejoran la privacidad, como la computación multipartita segura, para proponer métodos mediante los cuales el sesgo algorítmico puede evaluarse o mitigarse sin que estos datos estén nunca disponibles para los modeladores en texto claro . [136]

El sesgo algorítmico no sólo incluye categorías protegidas, sino que también puede afectar a características menos fácilmente observables o codificables, como los puntos de vista políticos. En estos casos, rara vez existe una verdad fundamental de fácil acceso o no controvertida , y eliminar el sesgo de dicho sistema es más difícil. [137] Además, pueden surgir correlaciones falsas y accidentales de una falta de comprensión de las categorías protegidas, por ejemplo, las tarifas de seguros basadas en datos históricos de accidentes automovilísticos que pueden superponerse, estrictamente por coincidencia, con grupos residenciales de minorías étnicas. [138]

Soluciones

Un estudio de 84 directrices políticas sobre IA ética encontró que la equidad y la "mitigación de sesgos no deseados" eran un punto de preocupación común y se abordaban mediante una combinación de soluciones técnicas, transparencia y monitoreo, derecho a reparación y mayor supervisión, y diversidad y esfuerzos de inclusión. [139]

Técnico

Ha habido varios intentos de crear métodos y herramientas que puedan detectar y observar sesgos dentro de un algoritmo. Estos campos emergentes se centran en herramientas que normalmente se aplican a los datos (de entrenamiento) utilizados por el programa en lugar de a los procesos internos del algoritmo. Estos métodos también pueden analizar el resultado de un programa y su utilidad y, por lo tanto, pueden implicar el análisis de su matriz de confusión (o tabla de confusión). [140] [141] [142] [143] [144] [145] [146] [147] [148] La IA explicable para detectar el sesgo del algoritmo es una forma sugerida de detectar la existencia de sesgo en un algoritmo o modelo de aprendizaje. [149] El uso del aprendizaje automático para detectar sesgos se denomina "realización de una auditoría de IA", donde el "auditor" es un algoritmo que analiza el modelo de IA y los datos de entrenamiento para identificar sesgos. [150] Garantizar que una herramienta de IA, como un clasificador, esté libre de sesgos es más difícil que simplemente eliminar la información sensible de sus señales de entrada, porque esto suele estar implícito en otras señales. Por ejemplo, los pasatiempos, los deportes y las escuelas a las que asiste un candidato a un puesto de trabajo podrían revelar su género al software, incluso cuando esto se elimine del análisis. Las soluciones a este problema implican garantizar que el agente inteligente no tenga ninguna información que pueda usarse para reconstruir la información confidencial y protegida sobre el sujeto, como se demostró por primera vez en [151], donde se entrenó simultáneamente una red de aprendizaje profundo para aprender una tarea mientras al mismo tiempo ser completamente agnóstico sobre la característica protegida. Se propuso un método más simple en el contexto de la incrustación de palabras e implica eliminar información que se correlaciona con la característica protegida. [152]

Actualmente, se está redactando un nuevo estándar IEEE que apunta a especificar metodologías que ayuden a los creadores de algoritmos a eliminar problemas de sesgo y articular transparencia (es decir, hacia las autoridades o los usuarios finales ) sobre la función y los posibles efectos de sus algoritmos. El proyecto fue aprobado en febrero de 2017 y está patrocinado por el Comité de Estándares de Ingeniería de Sistemas y Software, un comité constituido por la IEEE Computer Society . Se espera que un borrador de la norma se presente para votación en junio de 2019. [153] [154]

Transparencia y seguimiento

Las directrices éticas sobre la IA señalan la necesidad de rendición de cuentas y recomiendan que se tomen medidas para mejorar la interpretabilidad de los resultados. [155] Tales soluciones incluyen la consideración del "derecho a la comprensión" en los algoritmos de aprendizaje automático y resistirse al despliegue del aprendizaje automático en situaciones en las que las decisiones no se pueden explicar o revisar. [156] Con este fin, ya está en marcha un movimiento por una " IA explicable " dentro de organizaciones como DARPA , por razones que van más allá de la solución del sesgo. [157] Price Waterhouse Coopers , por ejemplo, también sugiere que monitorear la producción significa diseñar sistemas de tal manera que se asegure que los componentes solitarios del sistema puedan aislarse y cerrarse si distorsionan los resultados. [158]

Un enfoque inicial hacia la transparencia incluyó el código abierto de algoritmos . [159] Se puede examinar el código de software y proponer mejoras a través de instalaciones de alojamiento de código fuente . Sin embargo, este enfoque no produce necesariamente los efectos deseados. Las empresas y organizaciones pueden compartir toda la documentación y el código posibles, pero esto no establece transparencia si la audiencia no comprende la información proporcionada. Por lo tanto, vale la pena explorar el papel de una audiencia crítica interesada en relación con la transparencia. Los algoritmos no pueden ser considerados responsables sin una audiencia crítica. [160]

Derecho a remediar

Desde una perspectiva regulatoria, la Declaración de Toronto exige la aplicación de un marco de derechos humanos a los daños causados ​​por el sesgo algorítmico. [161] Esto incluye legislar expectativas de debida diligencia por parte de los diseñadores de estos algoritmos y crear responsabilidad cuando los actores privados no protegen el interés público, señalando que dichos derechos pueden verse oscurecidos por la complejidad de determinar la responsabilidad dentro de una red de complejos, procesos entrelazados. [162] Otros proponen la necesidad de mecanismos claros de seguro de responsabilidad. [163]

Diversidad e inclusión

En medio de la preocupación de que el diseño de sistemas de IA sea principalmente dominio de ingenieros varones blancos, [164] varios académicos han sugerido que el sesgo algorítmico puede minimizarse ampliando la inclusión en las filas de quienes diseñan sistemas de IA. [156] [139] Por ejemplo, sólo el 12% de los ingenieros de aprendizaje automático son mujeres, [165] y los líderes negros de IA señalan una "crisis de diversidad" en el campo. [166] Grupos como Black in AI y Queer in AI están intentando crear espacios más inclusivos en la comunidad de IA y trabajar contra los deseos a menudo dañinos de las corporaciones que controlan la trayectoria de la investigación de IA. [167] Las críticas a los simples esfuerzos de inclusión sugieren que los programas de diversidad no pueden abordar formas superpuestas de desigualdad y han pedido que se aplique una lente más deliberada de interseccionalidad al diseño de algoritmos. [168] [169] : 4  Investigadores de la Universidad de Cambridge han argumentado que abordar la diversidad racial se ve obstaculizado por la "blancura" de la cultura de la IA. [170]

Interdisciplinariedad y colaboración

La integración de la interdisciplinariedad y la colaboración en el desarrollo de sistemas de IA puede desempeñar un papel fundamental a la hora de abordar el sesgo algorítmico. La integración de conocimientos, experiencia y perspectivas de disciplinas ajenas a la informática puede fomentar una mejor comprensión del impacto que tienen las soluciones basadas en datos en la sociedad. Un ejemplo de esto en la investigación de IA es PACT o Enfoque Participativo para habilitar Capacidades en las comunidades, un marco propuesto para facilitar la colaboración al desarrollar soluciones impulsadas por la IA relacionadas con el impacto social. [171] Este marco identifica principios rectores para la participación de las partes interesadas cuando se trabaja en proyectos de IA para el bien social (AI4SG). PACT intenta cosificar la importancia de los esfuerzos de descolonización y cambio de poder en el diseño de soluciones de IA centradas en el ser humano. Una iniciativa académica en este sentido es el Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford, cuyo objetivo es fomentar la colaboración multidisciplinaria. La misión del instituto es promover la investigación, la educación, las políticas y la práctica de la inteligencia artificial (IA) para mejorar la condición humana. [172]

La colaboración con expertos externos y diversas partes interesadas facilita el desarrollo ético, inclusivo y responsable de sistemas inteligentes. Incorpora consideraciones éticas, comprende el contexto social y cultural, promueve el diseño centrado en el ser humano, aprovecha la experiencia técnica y aborda consideraciones políticas y legales. [173] La colaboración entre disciplinas es esencial para mitigar eficazmente los sesgos en los sistemas de IA y garantizar que las tecnologías de IA sean justas, transparentes y responsables.

Regulación

Europa

El Reglamento General de Protección de Datos (GDPR), el régimen de protección de datos revisado de la Unión Europea que se implementó en 2018, aborda la "toma de decisiones individuales automatizadas, incluida la elaboración de perfiles " en el artículo 22. Estas reglas prohíben "únicamente" las decisiones automatizadas que tengan un efecto "significativo" o "legal" en un individuo, a menos que estén explícitamente autorizados por consentimiento, contrato o ley del estado miembro . Cuando estén permitidas, deben existir salvaguardias, como el derecho a una persona informada y un derecho no vinculante a una explicación de las decisiones tomadas. Si bien estas regulaciones generalmente se consideran nuevas, desde 1995 en toda Europa existen disposiciones casi idénticas, en el artículo 15 de la Directiva de protección de datos . Las reglas y salvaguardias originales de decisión automatizada que se encuentran en la legislación francesa desde finales de la década de 1970. [174]

El RGPD aborda el sesgo algorítmico en los sistemas de elaboración de perfiles, así como los enfoques estadísticos posibles para limpiarlo, directamente en el considerando 71, [175] señalando que

el responsable del tratamiento deberá utilizar procedimientos matemáticos o estadísticos apropiados para la elaboración de perfiles, implementar medidas técnicas y organizativas apropiadas... que impidan, entre otras cosas, efectos discriminatorios sobre las personas físicas por motivos de origen racial o étnico, opiniones políticas, religión o creencias, comercio afiliación sindical, estado genético o de salud u orientación sexual, o que resulten en medidas que tengan tal efecto.

Al igual que el derecho no vinculante a una explicación del considerando 71, el problema es la naturaleza no vinculante de los considerandos . [176] Si bien ha sido tratado como un requisito por el Grupo de Trabajo del Artículo 29 que asesoró sobre la implementación de la ley de protección de datos, [175] sus dimensiones prácticas no están claras. Se ha argumentado que las evaluaciones de impacto de la protección de datos para la elaboración de perfiles de datos de alto riesgo (junto con otras medidas preventivas dentro de la protección de datos) pueden ser una mejor manera de abordar los problemas de discriminación algorítmica, ya que restringen las acciones de quienes implementan algoritmos, en lugar de exigir a los consumidores que presenten quejas o soliciten cambios. [177]

Estados Unidos

Estados Unidos no tiene una legislación general que controle el sesgo algorítmico, y aborda el problema a través de varias leyes estatales y federales que pueden variar según la industria, el sector y la forma en que se utiliza un algoritmo. [178] Muchas políticas son autoaplicadas o controladas por la Comisión Federal de Comercio . [178] En 2016, la administración Obama publicó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial, [179] cuyo objetivo era guiar a los responsables de la formulación de políticas hacia una evaluación crítica de los algoritmos. Recomendó a los investigadores "diseñar estos sistemas de manera que sus acciones y toma de decisiones sean transparentes y fácilmente interpretables por los humanos, y así puedan ser examinados para detectar cualquier sesgo que puedan contener, en lugar de simplemente aprender y repetir estos sesgos". Concebido únicamente como orientación, el informe no creó ningún precedente legal. [180] : 26 

En 2017, la ciudad de Nueva York aprobó el primer proyecto de ley de responsabilidad algorítmica en Estados Unidos. [181] El proyecto de ley, que entró en vigor el 1 de enero de 2018, requería "la creación de un grupo de trabajo que brinde recomendaciones sobre cómo la información sobre los sistemas de decisiones automatizadas de las agencias puede compartirse con el público y cómo las agencias pueden abordar casos en los que las personas se ven perjudicados por los sistemas de decisión automatizados de la agencia". [182] El grupo de trabajo debe presentar conclusiones y recomendaciones para futuras medidas reglamentarias en 2019. [183]

India

El 31 de julio de 2018 se presentó un borrador de Proyecto de Ley de Datos Personales. [184] El proyecto propone normas para el almacenamiento, procesamiento y transmisión de datos. Si bien no utiliza el término algoritmo, prevé disposiciones para "daños resultantes de cualquier procesamiento o cualquier tipo de procesamiento realizado por el fiduciario". Define "cualquier denegación o retiro de un servicio, beneficio o bien resultante de una decisión evaluativa sobre los datos principales" o "cualquier trato discriminatorio" como una fuente de daño que podría surgir del uso inadecuado de los datos. También establece disposiciones especiales para las personas de "estatus intersexual". [185]

Ver también

Referencias

  1. ^ Jacobi, Jennifer (13 de septiembre de 2001). "Patente n.º US2001021914". Espacionet . Consultado el 4 de julio de 2018 .
  2. ^ Suresh, Harini; Guttag, John (4 de noviembre de 2021). "Un marco para comprender las fuentes de daño a lo largo del ciclo de vida del aprendizaje automático". Equidad y acceso en algoritmos, mecanismos y optimización . EAAMO '21. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 1–9. doi :10.1145/3465416.3483305. ISBN 978-1-4503-8553-4. S2CID  235436386.
  3. ^ Striphas, Ted (febrero de 2012). "¿Qué es un algoritmo? - Cultura digital". culturadigitally.org . Consultado el 20 de noviembre de 2017 .
  4. ^ Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introducción a los algoritmos (3ª ed.). Cambridge, Massachusetts: MIT Press. pag. 5.ISBN 978-0-262-03384-8.
  5. ^ abc Kitchin, Rob (25 de febrero de 2016). "Pensar críticamente e investigar algoritmos" (PDF) . Información, Comunicación y Sociedad . 20 (1): 14-29. doi :10.1080/1369118X.2016.1154087. S2CID  13798875.
  6. ^ "Cómo funciona la búsqueda de Google" . Consultado el 19 de noviembre de 2017 .
  7. ^ Luckerson, Víctor. "Así es como funciona realmente el servicio de noticias de Facebook". Tiempo . Consultado el 19 de noviembre de 2017 .
  8. ^ Vanderbilt, Tom (7 de agosto de 2013). "La ciencia detrás de los algoritmos de Netflix que deciden lo que verás a continuación". Cableado . Consultado el 19 de noviembre de 2017 .
  9. ^ Angwin, Julia ; Mattu, Surya (20 de septiembre de 2016). "Amazon dice que pone a los clientes en primer lugar. Pero su algoritmo de precios no es así: ProPublica". ProPública . Consultado el 19 de noviembre de 2017 .
  10. ^ Livingstone, Rob (13 de marzo de 2017). "El futuro de la publicidad online son los big data y los algoritmos". La conversación . Consultado el 19 de noviembre de 2017 .
  11. ^ Hickman, Leo (1 de julio de 2013). "Cómo los algoritmos gobiernan el mundo". El guardián . Consultado el 19 de noviembre de 2017 .
  12. ^ abcdef Seaver, Nick. «Conociendo Algoritmos» (PDF) . Media in Transition 8, Cambridge, MA, abril de 2013. Archivado desde el original (PDF) el 1 de diciembre de 2017 . Consultado el 18 de noviembre de 2017 .
  13. ^ abc Graham, Stephen DN (julio de 2016). "Geografías ordenadas por software" (PDF) . Progreso en geografía humana (manuscrito enviado). 29 (5): 562–580. doi :10.1191/0309132505ph568oa. S2CID  19119278.
  14. ^ abc Tewell, Eamon (4 de abril de 2016). "Hacia la lectura resistente de la información: Google, espectador resistente y alfabetización en información crítica". Portal: Bibliotecas y Academia . 16 (2): 289–310. doi :10.1353/pla.2016.0017. ISSN  1530-7131. S2CID  55749077 . Consultado el 19 de noviembre de 2017 .
  15. ^ Crawford, Kate (1 de abril de 2013). "Los sesgos ocultos en Big Data". Revisión de negocios de Harvard .
  16. ^ abcdefghijklmnopq Friedman, Batya; Nissenbaum, Helen (julio de 1996). "Sesgo en los sistemas informáticos" (PDF) . Transacciones ACM sobre sistemas de información . 14 (3): 330–347. doi :10.1145/230538.230561. S2CID  207195759 . Consultado el 10 de marzo de 2019 .
  17. ^ abcdef Gillespie, Tarleton; Boczkowski, Pablo; Pie, Kristin (2014). Tecnologías de los medios . Cambridge: Prensa del MIT. págs. 1–30. ISBN 9780262525374.
  18. ^ ab Diakopoulos, Nicolás. "Responsabilidad algorítmica: sobre la investigación de cajas negras |". www.towcenter.org . Consultado el 19 de noviembre de 2017 .
  19. ^ Lipartito, Kenneth (6 de enero de 2011). La narrativa y el algoritmo: géneros de informes crediticios desde el siglo XIX hasta la actualidad (PDF) (manuscrito enviado). doi :10.2139/SSRN.1736283. S2CID  166742927. SSRN  1736283.
  20. ^ ab Goodman, Bryce; Flaxman, Seth (2017). "Regulaciones de la UE sobre la toma de decisiones algorítmicas y el "derecho a la explicación"". Revista AI . 38 (3): 50. arXiv : 1606.08813 . doi :10.1609/aimag.v38i3.2741. S2CID  7373959.
  21. ^ abcdefg Weizenbaum, José (1976). El poder de la computadora y la razón humana: del juicio al cálculo . San Francisco: WH Freeman. ISBN 978-0-7167-0464-5.
  22. ^ ab Goffrey, Andrew (2008). "Algoritmo". En Fuller, Matthew (ed.). Estudios de software: un léxico . Cambridge, Massachusetts: MIT Press. págs. 15-20. ISBN 978-1-4356-4787-9.
  23. ^ Lowry, Estela; Macpherson, Gordon (5 de marzo de 1988). "Una mancha en la profesión". Revista médica británica . 296 (6623): 657–8. doi :10.1136/bmj.296.6623.657. PMC 2545288 . PMID  3128356 . Consultado el 17 de noviembre de 2017 . 
  24. ^ Miller, Alex P. (26 de julio de 2018). "¿Quiere decisiones menos sesgadas? Utilice algoritmos". Revisión de negocios de Harvard . Consultado el 31 de julio de 2018 .
  25. ^ abc Introna, Lucas D. (2 de diciembre de 2011). "La formulación del código". Teoría, Cultura y Sociedad . 28 (6): 113-141. doi :10.1177/0263276411418131. S2CID  145190381.
  26. ^ Bogost, Ian (15 de enero de 2015). "La Catedral de la Computación". El Atlántico . Consultado el 19 de noviembre de 2017 .
  27. ^ abcdefg Introna, Lucas; Madera, David (2004). "Imaginando la vigilancia algorítmica: la política de los sistemas de reconocimiento facial". Sociedad de vigilancia . 2 : 177–198 . Consultado el 19 de noviembre de 2017 .
  28. ^ abcd Introna, Lucas D. (21 de diciembre de 2006). "Mantener la reversibilidad de los pliegues: visibilizar la ética (política) de las tecnologías de la información". Ética y Tecnología de la Información . 9 (1): 11–25. CiteSeerX 10.1.1.154.1313 . doi :10.1007/s10676-006-9133-z. S2CID  17355392. 
  29. ^ ab Shirky, arcilla. "Una publicación especulativa sobre la idea de autoridad algorítmica Clay Shirky". www.shirky.com . Consultado el 20 de noviembre de 2017 .
  30. ^ ab Ziewitz, Malte (1 de enero de 2016). "Algoritmos que gobiernan: mito, desorden y métodos". Ciencia, tecnología y valores humanos . 41 (1): 3–16. doi : 10.1177/0162243915608948 . ISSN  0162-2439. S2CID  148023125.
  31. ^ Lash, Scott (30 de junio de 2016). "Poder después de la hegemonía". Teoría, Cultura y Sociedad . 24 (3): 55–78. doi :10.1177/0263276407075956. S2CID  145639801.
  32. ^ ab García, Megan (1 de enero de 2016). "Racista en la máquina". Revista de política mundial . 33 (4): 111-117. doi :10.1215/07402775-3813015. S2CID  151595343.
  33. ^ "Registro ACM FAccT 2021". fatconference.org . Consultado el 14 de noviembre de 2021 .
  34. ^ Ochigame, Rodrigo (20 de diciembre de 2019). "La invención de la" IA ética ": cómo las grandes tecnologías manipulan la academia para evitar la regulación". La Intercepción . Consultado el 11 de febrero de 2020 .
  35. ^ Sergot, MJ; Sadri, F; Kowalski, RA; Kriwaczek, F; Hammond, P; Cory, HT (mayo de 1986). "La Ley de Nacionalidad Británica como programa lógico" (PDF) . Comunicaciones de la ACM . 29 (5): 370–386. doi :10.1145/5689.5920. S2CID  5665107 . Consultado el 18 de noviembre de 2017 .
  36. ^ ab "Para detener el sesgo algorítmico, primero tenemos que definirlo". Brookings . Consultado el 27 de junio de 2023 .
  37. ^ Evans, Melanie; Mathews, Anna Wilde (24 de octubre de 2019). "Los investigadores encuentran sesgos raciales en el algoritmo hospitalario". Wall Street Journal . ISSN  0099-9660 . Consultado el 27 de junio de 2023 .
  38. ^ abc Luo, Queenie; Puett, Michael J.; Smith, Michael D. (23 de mayo de 2023), Un espejo en perspectiva del elefante: investigación del sesgo lingüístico en Google, ChatGPT, Wikipedia y YouTube , arXiv : 2303.16281
  39. ^ Músico callejero, Tony; Choenni, Sunil; Shoae Bargh, Mortaza (20 de noviembre de 2023). "Estereotipos en ChatGPT: un estudio empírico". Actas de la XVI Conferencia Internacional sobre Teoría y Práctica de la Gobernanza Electrónica . ICEGOV '23. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 24-32. doi :10.1145/3614321.3614325. ISBN 979-8-4007-0742-1.
  40. ^ Kotek, Hadas; Dockum, Rikker; Sun, David (5 de noviembre de 2023). "Sesgos de género y estereotipos en modelos de lenguaje grandes". Actas de la Conferencia de Inteligencia Colectiva de ACM . CI '23. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 12-24. doi :10.1145/3582269.3615599. ISBN 979-8-4007-0113-9.
  41. ^ Cheng, Myra; Durmus, Esin; Jurafsky, Dan (29 de mayo de 2023), Personas marcadas: uso de indicaciones del lenguaje natural para medir estereotipos en modelos de lenguaje , arXiv : 2305.18189
  42. ^ Feng, Shangbin; Parque, Chan Young; Liu, Yuhan; Tsvetkov, Yulia (julio de 2023). Rogers, Anna; Boyd-Graber, Jordania; Okazaki, Naoaki (eds.). "Desde el entrenamiento previo de datos hasta modelos de lenguaje y tareas posteriores: seguimiento de los rastros de sesgos políticos que conducen a modelos de PNL injustos". Actas de la 61ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos) . Toronto, Canadá: Asociación de Lingüística Computacional: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  43. ^ Gillespie, Tarleton (25 de junio de 2014). "Algoritmo [borrador] [#digitalkeywords] - Cultura digital". culturadigitally.org . Consultado el 20 de noviembre de 2017 .
  44. ^ Roth, 1524-1528 d.E. (14 de diciembre de 1990). "Nuevos médicos: un experimento natural en la organización del mercado". Ciencia . 250 (4987): 1524-1528. Código Bib : 1990 Ciencia... 250.1524R. doi : 10.1126/ciencia.2274783. PMID  2274783. S2CID  23259274 . Consultado el 18 de noviembre de 2017 .{{cite journal}}: Mantenimiento CS1: nombres numéricos: lista de autores ( enlace )
  45. ^ Kuang, Cliff (21 de noviembre de 2017). "¿Se puede enseñar a la IA a explicarse a sí misma?". Revista del New York Times . Consultado el 26 de noviembre de 2017 .
  46. ^ ab Jouvenal, Justin (17 de noviembre de 2016). "La policía está utilizando software para predecir el crimen. ¿Es un 'santo grial' o está parcializado contra las minorías?". El Correo de Washington . Consultado el 25 de noviembre de 2017 .
  47. ^ ab Chamma, Maurice (3 de febrero de 2016). "Vigilancia del futuro". El Proyecto Marshall . Consultado el 25 de noviembre de 2017 .
  48. ^ Lum, Kristian; Isaac, William (octubre de 2016). "¿Para predecir y servir?". Significado . 13 (5): 14-19. doi : 10.1111/j.1740-9713.2016.00960.x .
  49. ^ Smith, Jack (9 de octubre de 2016). "La vigilancia policial predictiva sólo amplifica los prejuicios raciales, según muestra un estudio". micrófono . Consultado el 25 de noviembre de 2017 .
  50. ^ Lum, Kristian; Isaac, William (1 de octubre de 2016). "Preguntas frecuentes sobre vigilancia policial predictiva y sesgos". HRDAG . Consultado el 25 de noviembre de 2017 .
  51. ^ Sol, Wenlong; Nasraoui, Olfa; Shafto, Patricio (2018). "Sesgo algorítmico iterado en el proceso de filtrado de información de aprendizaje automático interactivo". Actas de la Décima Conferencia Internacional Conjunta sobre Descubrimiento del Conocimiento, Ingeniería del Conocimiento y Gestión del Conocimiento . Sevilla, España: SCITEPRESS - Publicaciones de Ciencia y Tecnología. págs. 110-118. doi : 10.5220/0006938301100118 . ISBN 9789897583308.
  52. ^ Sinha, Ayan; Gleich, David F.; Ramani, Karthik (9 de agosto de 2018). "La ley de Gauss para redes revela directamente los límites de la comunidad". Informes científicos . 8 (1): 11909. Código bibliográfico : 2018NatSR...811909S. doi :10.1038/s41598-018-30401-0. ISSN  2045-2322. PMC 6085300 . PMID  30093660. 
  53. ^ Hao, Karen (febrero de 2018). "Google finalmente admite que tiene un problema con la burbuja de filtro". Cuarzo . Consultado el 26 de febrero de 2019 .
  54. ^ "Facebook está probando esta nueva función para combatir las 'burbujas de filtro'". Fortuna . Consultado el 26 de febrero de 2019 .
  55. ^ ab Sandvig, cristiano; Hamilton, Kevin; Karahalios, Karrie ; Langbort, Cedric (22 de mayo de 2014). "Algoritmos de auditoría: métodos de investigación para detectar la discriminación en plataformas de Internet" (PDF) . 64ª Reunión Anual de la Asociación Internacional de Comunicación . Consultado el 18 de noviembre de 2017 .
  56. ^ Brin, Sergey; Página, Lorenzo. "La anatomía de un motor de búsqueda". www7.scu.edu.au. ​Archivado desde el original el 2 de julio de 2019 . Consultado el 18 de noviembre de 2017 .
  57. ^ Epstein, Robert; Robertson, Ronald E. (18 de agosto de 2015). "El efecto de manipulación de los motores de búsqueda (SEME) y su posible impacto en los resultados de las elecciones". Procedimientos de la Academia Nacional de Ciencias . 112 (33): E4512–E4521. Código Bib : 2015PNAS..112E4512E. doi : 10.1073/pnas.1419828112 . PMC 4547273 . PMID  26243876. 
  58. ^ Enlace, Robert M.; Fariss, Christopher J.; Jones, Jason J.; Kramer, Adam DI; Marlow, Cameron; Settle, Jaime E.; Fowler, James H. (13 de septiembre de 2012). "Un experimento de 61 millones de personas sobre influencia social y movilización política". Naturaleza . 489 (7415): 295–8. Código Bib :2012Natur.489..295B. doi : 10.1038/naturaleza11421. ISSN  0028-0836. PMC 3834737 . PMID  22972300. 
  59. ^ Zittrain, Jonathan (2014). "Ingeniería de una elección" (PDF) . Foro de revisión de leyes de Harvard . 127 : 335–341. Archivado desde el original (PDF) el 4 de marzo de 2021 . Consultado el 19 de noviembre de 2017 .
  60. ^ Día, Matt (31 de agosto de 2016). "Cómo el motor de búsqueda de LinkedIn puede reflejar un sesgo de género". Los tiempos de Seattle . Consultado el 25 de noviembre de 2017 .
  61. ^ ab Crawford, Kate; Schultz, Jason (2014). "Big Data y debido proceso: hacia un marco para reparar los daños predictivos a la privacidad". Revisión de derecho de Boston College . 55 (1): 93–128 . Consultado el 18 de noviembre de 2017 .
  62. ^ Duhigg, Charles (16 de febrero de 2012). "Cómo las empresas aprenden sus secretos". Revista del New York Times . Consultado el 18 de noviembre de 2017 .
  63. ^ Noble, Safiya (2012). "Conexiones perdidas: lo que dicen los motores de búsqueda sobre las mujeres" (PDF) . Perra . 12 (4): 37–41.
  64. ^ Guynn, Jessica (16 de marzo de 2017). "Google comienza a marcar contenido ofensivo en los resultados de búsqueda". EE.UU. HOY EN DÍA . EE.UU. Hoy en día . Consultado el 19 de noviembre de 2017 .
  65. ^ Simonita, Tom. "Un estudio sugiere que el sistema de orientación de anuncios de Google puede discriminar". Revisión de tecnología del MIT . Instituto de Tecnología de Massachusetts . Consultado el 17 de noviembre de 2017 .
  66. ^ Prates, Marcelo O; Avelar, Pedro HC; Cordero, Luis (2018). "Evaluación del sesgo de género en la traducción automática: un estudio de caso con Google Translate". arXiv : 1809.02208 [cs.CY].
  67. ^ Prates, Marcelo O; Avelar, Pedro H.; Cordero, Luís C. (2019). "Evaluación del sesgo de género en la traducción automática: un estudio de caso con Google Translate". Computación neuronal y aplicaciones . 32 (10): 6363–6381. arXiv : 1809.02208 . doi :10.1007/s00521-019-04144-6. S2CID  52179151.
  68. ^ Claburn, Thomas (10 de septiembre de 2018). "Los científicos critican al Traductor de Google por sexismo". El registro . Consultado el 28 de abril de 2022 .
  69. ^ Dastin, Jeffrey (9 de octubre de 2018). "Amazon elimina una herramienta secreta de reclutamiento de inteligencia artificial que mostraba prejuicios contra las mujeres". Reuters .
  70. ^ Vincent, James (10 de octubre de 2018). "Según se informa, Amazon elimina la herramienta interna de reclutamiento de IA que estaba sesgada en contra de las mujeres". El borde .
  71. ^ "Reflexionando sobre el sistema de recomendación de Spotify: SongData". Octubre de 2019 . Consultado el 7 de agosto de 2020 .
  72. ^ Buolamwini, alegría; Gebru, Timnit (21 de enero de 2018). "Tonos de género: disparidades de precisión interseccionales en la clasificación de género comercial". Actas de investigación sobre aprendizaje automático . 81 (2018): 77–91 . Consultado el 27 de septiembre de 2020 .
  73. ^ Noble, Safiya Umoja (20 de febrero de 2018). Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo . Nueva York: Prensa de la Universidad de Nueva York. ISBN 978-1479837243.
  74. ^ ab Nakamura, Lisa (2009). Imán, Shoshana; Gates, Kelly (eds.). Los nuevos medios de vigilancia . Londres: Routledge. págs. 149-162. ISBN 978-0-415-56812-8.
  75. ^ Marco Marabelli; demandar a Newell; Valerie Handunge (2021). "El ciclo de vida de los sistemas algorítmicos de toma de decisiones: opciones organizativas y desafíos éticos". Revista de Sistemas de Información Estratégica . 30 (3): 1–15. doi :10.1016/j.jsis.2021.101683.
  76. ^ Alejandro, Rodolfo; Gyamerah, Jacquelyn (septiembre de 1997). "Castigo diferencial de afroamericanos y blancos que poseen drogas: ¿una política justa o una continuación del pasado?". Revista de estudios negros . 28 (1): 97-111. doi :10.1177/002193479702800106. ISSN  0021-9347. S2CID  152043501.
  77. ^ Petersilia, Joan (enero de 1985). "Disparidades raciales en el sistema de justicia penal: un resumen". Crimen y delincuencia . 31 (1): 15–34. doi :10.1177/0011128785031001002. ISSN  0011-1287. S2CID  146588630.
  78. ^ ab Guynn, Jessica (1 de julio de 2015). "Google Fotos etiquetó a los negros como 'gorilas'". EE.UU. HOY EN DÍA . EE.UU. Hoy en día . Consultado el 18 de noviembre de 2017 .
  79. ^ Rose, Adam (22 de enero de 2010). "¿Son racistas las cámaras de detección de rostros?". Tiempo . Consultado el 18 de noviembre de 2017 .
  80. ^ "Alexa no entiende tu acento". El Correo de Washington .
  81. ^ Sweeney, Latanya (28 de enero de 2013). "Discriminación en la entrega de anuncios online". arXiv : 1301.6822 [cs.IR].
  82. ^ Braun, Lundy (2015). "Raza, etnia y función pulmonar: una breve historia". Revista canadiense de terapia respiratoria . 51 (4): 99-101. ISSN  1205-9838. PMC 4631137 . PMID  26566381. 
  83. ^ Robinson, Whitney R; Renson, Audrey; Naimi, Ashley I (1 de abril de 2020). "Aprender por uno mismo sobre el racismo estructural mejorará su aprendizaje automático". Bioestadística . 21 (2): 339–344. doi : 10.1093/bioestadística/kxz040 . ISSN  1465-4644. PMC 7868043 . PMID  31742353. 
  84. ^ Johnson, Carolyn Y. (24 de octubre de 2019). "El sesgo racial en un algoritmo médico favorece a los pacientes blancos sobre los pacientes negros más enfermos". El Correo de Washington . Consultado el 28 de octubre de 2019 .
  85. ^ Bartlett, Robert; Morse, Adair; Stanton, Richard; Wallace, Nancy (junio de 2019). "Discriminación en préstamos al consumo en la era FinTech". Documento de Trabajo NBER N° 25943 . Serie de documentos de trabajo. doi :10.3386/w25943. S2CID  242410791.
  86. ^ Jeff Larson, Julia Angwin (23 de mayo de 2016). "Cómo analizamos el algoritmo de reincidencia COMPAS". ProPública . Archivado desde el original el 29 de abril de 2019 . Consultado el 19 de junio de 2020 .
  87. ^ "Comentario: Malas noticias. La inteligencia artificial está sesgada". CNA . 12 de enero de 2019. Archivado desde el original el 12 de enero de 2019 . Consultado el 19 de junio de 2020 .
  88. ^ ab Angwin, Julia; Larson, Jeff; Mattu, Surya; Kirchner, Lauren (23 de mayo de 2016). "Sesgo de la máquina - ProPublica". ProPública . Consultado el 18 de noviembre de 2017 .
  89. ^ Harcourt, Bernard (16 de septiembre de 2010). "El riesgo como sustituto de la raza". Reportero de sentencias federales . 27 (4): 237. doi :10.1525/fsr.2015.27.4.237. S2CID  53611813. SSRN  1677654.
  90. ^ Skeem J, Lowenkamp C, Riesgo, raza y reincidencia: sesgo predictivo e impacto dispar (14 de junio de 2016). SSRN  2687339
  91. ^ Tomás, C.; Núñez, A. (2022). "Automatización de la discreción judicial: cómo las evaluaciones algorítmicas de riesgos en las sentencias previas al juicio violan la igualdad de derechos de protección por motivos de raza". Ley y desigualdad . 40 (2): 371–407. doi : 10.24926/25730037.649 .
  92. ^ ab Angwin, Julia; Grassegger, Hannes (28 de junio de 2017). "Las reglas secretas de censura de Facebook protegen a los hombres blancos del discurso de odio, pero no a los niños negros - ProPublica". ProPública . Consultado el 20 de noviembre de 2017 .
  93. ^ Angwin, Julia; Varner, Madeleine; Tobin, Ariana (14 de septiembre de 2017). "Facebook permitió a los anunciantes llegar a los 'enemigos de los judíos' - ProPublica". ProPública . Consultado el 20 de noviembre de 2017 .
  94. ^ Savia, Martín; Tarjeta, Dallas; Gabriel, Saadia; Choi, Yejin; Smith, Noah A. (28 de julio - 2 de agosto de 2019). "El riesgo de sesgo racial en la detección del discurso de odio" (PDF) . Actas de la 57.ª reunión anual de la Asociación de Lingüistas Computacionales . Florencia, Italia: Asociación de Lingüística Computacional. págs. 1668-1678. Archivado (PDF) desde el original el 14 de agosto de 2019.
  95. ^ Ghaffary, Shirin (15 de agosto de 2019). "Los algoritmos que detectan el discurso de odio en línea están sesgados contra los negros". Vox . Consultado el 19 de febrero de 2020 .
  96. ^ Furl, N (diciembre de 2002). "Algoritmos de reconocimiento facial y el efecto de la otra raza: mecanismos computacionales para una hipótesis de contacto del desarrollo". Ciencia cognitiva . 26 (6): 797–815. doi : 10.1207/s15516709cog2606_4 .
  97. ^ Raji, Inioluwa Débora; Gebru, Timnit; Mitchell, Margarita; Buolamwini, alegría; Lee, Joonseok; Denton, Emily (7 de febrero de 2020). "Salvar las apariencias". Actas de la Conferencia AAAI/ACM sobre IA, ética y sociedad . Asociación para Maquinaria de Computación. págs. 145-151. arXiv : 2001.00964 . doi :10.1145/3375627.3375820. ISBN 9781450371100. S2CID  209862419.
  98. ^ "El reconocimiento facial es preciso, si eres un hombre blanco". Los New York Times . 9 de febrero de 2018 . Consultado el 24 de agosto de 2023 .
  99. ^ Buolamwini, alegría; Gebru, Timnit (2018). "Tonos de género: disparidades interseccionales de precisión en la clasificación comercial de género" (PDF) . Actas de investigación sobre aprendizaje automático . 81 : 1 - a través de MLR Press.
  100. ^ Ananny, Mike (14 de abril de 2011). "La curiosa conexión entre aplicaciones para hombres homosexuales y delincuentes sexuales". El Atlántico . Consultado el 18 de noviembre de 2017 .
  101. ^ Kafka, Pedro. "¿Amazon realmente falló este fin de semana? Twittersphere dice 'Sí', el minorista en línea dice 'Glitch'". Todas las cosas D. Consultado el 22 de noviembre de 2017 .
  102. ^ Kafka, Pedro. "Amazon se disculpa por el 'error de catalogación torpe'". Todas las cosas D. Consultado el 22 de noviembre de 2017 .
  103. ^ Matsakis, Louise (22 de febrero de 2019). "Un error de búsqueda 'sexista' dice más sobre nosotros que Facebook". Cableado . ISSN  1059-1028 . Consultado el 26 de febrero de 2019 .
  104. ^ "Algunas IA simplemente no deberían existir". 19 de abril de 2019.
  105. ^ Samuel, Sigal (19 de abril de 2019). "Algunas IA simplemente no deberían existir". Vox . Consultado el 12 de diciembre de 2019 .
  106. ^ Wang, Yilun; Kosinski, Michal (15 de febrero de 2017). "Las redes neuronales profundas son más precisas que los humanos a la hora de detectar la orientación sexual a partir de imágenes faciales". OSF . doi : 10.17605/OSF.IO/ZN79K.
  107. ^ Levin, Sam (9 de septiembre de 2017). "Grupos LGBT denuncian una IA 'peligrosa' que utiliza tu cara para adivinar la sexualidad". El guardián . ISSN  0261-3077 . Consultado el 12 de diciembre de 2019 .
  108. ^ Pal, GC (16 de septiembre de 2011). "Discapacidad, interseccionalidad y privaciones: una agenda excluida". Psicología y Sociedades en Desarrollo . 23(2), 159–176. doi :10.1177/097133361102300202. S2CID  147322669 - vía Sagepub.
  109. ^ Brinkman, Aurora H.; Rea-Sandin, Gianna; Lund, Emily M.; Fitzpatrick, Olivia M.; Gusmán, Michaela S.; Hueso, Cassandra L.; Scholars for Elevating Equity and Diversity (SEED) (20 de octubre de 2022). "Cambiar el discurso sobre la discapacidad: pasar a un enfoque inclusivo e interseccional". Revista Estadounidense de Ortopsiquiatría . 93 (1): 50–62. doi :10.1037/ort0000653. ISSN  1939-0025. PMC 9951269 . PMID  36265035. 
  110. ^ Whittaker, Meredith (noviembre de 2019). "Discapacidad, prejuicios e inteligencia artificial" (PDF) .
  111. ^ "Misión - La discapacidad es diversidad - Estimada industria del entretenimiento: NO HAY DIVERSIDAD, EQUIDAD E INCLUSIÓN SIN DISCAPACIDAD". La discapacidad es diversidad . Consultado el 2 de diciembre de 2022 .
  112. ^ "Diseño de Microsoft". www.microsoft.com . Consultado el 2 de diciembre de 2022 .
  113. ^ Pulrang, Andrés. "Cuatro formas de comprender la diversidad de la comunidad de personas con discapacidad". Forbes . Consultado el 2 de diciembre de 2022 .
  114. ^ Watermeyer, Brian; Swartz, Leslie (12 de octubre de 2022). "La discapacidad y el problema de la interseccionalidad perezosa". Discapacidad y sociedad . 38 (2): 362–366. doi :10.1080/09687599.2022.2130177. ISSN  0968-7599. S2CID  252959399.
  115. ^ "Informe de datos sobre discapacidad 2021". Iniciativa de datos sobre discapacidad . Consultado el 2 de diciembre de 2022 .
  116. ^ White, Jason JG (2 de marzo de 2020). "Equidad de la IA para personas con discapacidad: análisis de problemas y colaboración interdisciplinaria". ACM SIGACCESS Accesibilidad y Computación (125): 3:1. doi :10.1145/3386296.3386299. ISSN  1558-2337. S2CID  211723415.
  117. ^ "Los modelos de lenguaje de IA muestran prejuicios contra las personas con discapacidades, según un estudio | Universidad Penn State". www.psu.edu . Consultado el 2 de diciembre de 2022 .
  118. ^ Givens, Alexandra Reeve (6 de febrero de 2020). "Cómo el sesgo algorítmico perjudica a las personas con discapacidad". Revista Pizarra . Consultado el 2 de diciembre de 2022 .
  119. ^ Morris, Meredith Ringel (22 de mayo de 2020). "IA y accesibilidad". Comunicaciones de la ACM . 63 (6): 35–37. arXiv : 1908.08939 . doi :10.1145/3356727. ISSN  0001-0782. S2CID  201645229.
  120. ^ Noble, Safiya Umoja (20 de febrero de 2018). Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo . Nueva York. ISBN 9781479837243. OCLC  987591529.{{cite book}}: Mantenimiento CS1: falta el editor de la ubicación ( enlace )
  121. ^ Castelnovo, Alejandro; Inverardi, Nicole; Nanino, Gabriele; Penco, Ilaria; Regoli, Daniele (2023). "¿Suficientemente justo? Un mapa de las limitaciones actuales a los requisitos para tener algoritmos" justos "". arXiv : 2311.12435 [cs.AI].
  122. ^ Ruggieri, Salvatore; Álvarez, José M; Pugnana, Andrea; Turini, Franco (2023). "¿Podemos confiar en la IA justa?". Actas de la Conferencia AAAI sobre Inteligencia Artificial . 37 (13): 5421–15430. doi : 10.1609/aaai.v37i13.26798 . S2CID  259678387.
  123. ^ Friedler, Sorelle A.; Scheidegger, Carlos; Venkatasubramanian, Suresh (2016). "Sobre la (im)posibilidad de la justicia". arXiv : 1609.07236 [cs.CY].
  124. ^ Hu, lirio; Chen, Yiling (2018). "Impactos distributivos y de bienestar de la clasificación justa". arXiv : 1807.01134 [cs.LG].
  125. ^ Dtrabajo, Cynthia; Hardt, Moritz; Pitassi, Toniann; Reingold, Omer; Zemel, Rich (28 de noviembre de 2011). "Equidad a través de la conciencia". arXiv : 1104.3913 [cs.CC].
  126. ^ abc Sandvig, cristiano; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (2014). Gangadharan, Seeta Peña; Eubanks, Virginia; Barocas, Solón (eds.). "Una auditoría de algoritmos" (PDF) . Datos y discriminación: ensayos recopilados .
  127. ^ LaFrance, Adrienne (18 de septiembre de 2015). "Los algoritmos que impulsan la Web son cada vez más misteriosos". El Atlántico . Consultado el 19 de noviembre de 2017 .
  128. ^ Bruno Latour (1999). La esperanza de Pandora: ensayos sobre la realidad de los estudios científicos . Cambridge, Massachusetts : Prensa de la Universidad de Harvard .
  129. ^ Kubitschko, Sebastián; Kaun, Anne (2016). Métodos innovadores en la investigación de medios y comunicación. Saltador. ISBN 978-3-319-40700-5. Consultado el 19 de noviembre de 2017 .
  130. ^ McGee, Matt (16 de agosto de 2013). "EdgeRank está muerto: el algoritmo de alimentación de noticias de Facebook ahora tiene cerca de 100.000 factores de peso". Comercialización de terrenos . Consultado el 18 de noviembre de 2017 .
  131. ^ abc Granka, Laura A. (27 de septiembre de 2010). "La política de búsqueda: una retrospectiva de una década" (PDF) . La Sociedad de la Información . 26 (5): 364–374. doi :10.1080/01972243.2010.511560. S2CID  16306443 . Consultado el 18 de noviembre de 2017 .
  132. ^ Szymielewicz, Katarzyna (20 de enero de 2020). "Política de caja negra". Medio . Consultado el 11 de febrero de 2020 .
  133. ^ Veale, Michael; Binns, Rubén (2017). "Aprendizaje automático más justo en el mundo real: mitigar la discriminación sin recopilar datos confidenciales". Big Data y sociedad . 4 (2): 205395171774353. doi : 10.1177/2053951717743530 . SSRN  3060763.
  134. ^ Elliott, Marc N.; Morrison, Peter A.; Fremont, Allen; McCaffrey, Daniel F.; Pantoja, Felipe; Lurie, Nicole (junio de 2009). "Uso de la lista de apellidos de la Oficina del Censo para mejorar las estimaciones de raza/etnia y las disparidades asociadas". Metodología de la Investigación de Servicios y Resultados de Salud . 9 (2): 69–83. doi :10.1007/s10742-009-0047-1. ISSN  1387-3741. S2CID  43293144.
  135. ^ Chen, Jiahao; Kallus, Natán; Mao, Xiaojie; Svacha, Geoffry; Udell, Madeleine (2019). "Equidad bajo el desconocimiento". Actas de la Conferencia sobre Equidad, Responsabilidad y Transparencia . Atlanta, GA, EE.UU.: ACM Press. págs. 339–348. arXiv : 1811.11154 . doi :10.1145/3287560.3287594. ISBN 9781450361255. S2CID  58006233.
  136. ^ Kilbertus, Niki; Gascón, Adriá; Kusner, Matt; Veale, Michael; Gummadi, Krishna; Weller, Adrián (2018). "Justicia ciega: equidad con atributos sensibles cifrados". Conferencia internacional sobre aprendizaje automático : 2630–2639. arXiv : 1806.03281 . Código Bib : 2018arXiv180603281K.
  137. ^ Binns, Rubén; Veale, Michael; Kleek, Max Van; Shadbolt, Nigel (13 de septiembre de 2017). "¿De tal entrenador, tal bot? Herencia del sesgo en la moderación algorítmica de contenido". Informática Social . Apuntes de conferencias sobre informática. vol. 10540. págs. 405–415. arXiv : 1707.01477 . doi :10.1007/978-3-319-67256-4_32. ISBN 978-3-319-67255-7. S2CID  2814848.
  138. ^ Claburn, Thomas (18 de julio de 2016). "La ley de protección de datos de la UE puede acabar con el algoritmo incognoscible - InformationWeek". Semana de la Información . Consultado el 25 de noviembre de 2017 .
  139. ^ ab Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 de septiembre de 2019). "El panorama global de las directrices éticas de la IA". Inteligencia de la máquina de la naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi :10.1038/s42256-019-0088-2. S2CID  201827642.
  140. ^ https://research.google.com/bigpicture/attacking-discrimination-in-ml/ Atacar la discriminación con un aprendizaje automático más inteligente
  141. ^ Hardt, Moritz; Precio, Eric; Srebro, Nathan (2016). "Igualdad de oportunidades en el aprendizaje supervisado". arXiv : 1610.02413 [cs.LG].
  142. ^ https://venturebeat.com/2018/05/25/microsoft-is-developing-a-tool-to-help-engineers-catch-bias-in-algorithms/ Microsoft está desarrollando una herramienta para ayudar a los ingenieros a detectar sesgos en algoritmos
  143. ^ "Facebook dice que tiene una herramienta para detectar sesgos en su inteligencia artificial". Cuarzo . 3 de mayo de 2018. Archivado desde el original el 5 de marzo de 2023.
  144. ^ Auditoría de Pymetrics-ai de código abierto
  145. ^ https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/2018/05/31/pymetrics-open-sources-audit-ai-an-algorithm-bias-detection-tool/amp / Pymetrics open-sources Audit AI, una herramienta de detección de sesgos algorítmicos
  146. ^ https://github.com/dssg/aequitas Aequitas de código abierto: kit de herramientas de auditoría de imparcialidad y equidad
  147. ^ https://dsapp.uchicago.edu/aequitas/ open-sources Auditoría de IA, Aequitas en la Universidad de Chicago
  148. ^ https://www.ibm.com/blogs/research/2018/02/mitigating-bias-ai-models/ Mitigar el sesgo en los modelos de IA
  149. ^ S. Sen, D. Dasgupta y KD Gupta, "An Empirical Study on Algorithmic Bias", 44ª Conferencia Anual de Computadoras, Software y Aplicaciones (COMPSAC) del IEEE 2020, Madrid, España, 2020, págs. 1189-1194, doi : 10.1109/COMPSAC48688.2020.00-95.
  150. ^ Zou, James; Schiebinger, Londa (julio de 2018). "La IA puede ser sexista y racista; es hora de hacerla justa". Naturaleza . 559 (7714): 324–326. Código Bib :2018Natur.559..324Z. doi : 10.1038/d41586-018-05707-8 . PMID  30018439.
  151. ^ Jia, Sen; Bienestar, Tomás; Cristianini, Nello (2018). Correcto por la razón correcta: formación de redes agnósticas . Simposio internacional sobre análisis inteligente de datos. Saltador.
  152. ^ Sutton, Adán; Bienestar, Tomás; Cristianini, Nello (2018). Incrustaciones sesgadas de datos salvajes: medir, comprender y eliminar . Simposio internacional sobre análisis inteligente de datos. Saltador.
  153. ^ Koene, Ansgar (junio de 2017). "Sesgo algorítmico: abordar preocupaciones crecientes [vanguardia]" (PDF) . Revista IEEE Tecnología y Sociedad . 36 (2): 31–32. doi :10.1109/mts.2017.2697080. ISSN  0278-0097.
  154. ^ "P7003 - Consideraciones sobre el sesgo algorítmico". estándares.ieee.org . Consultado el 3 de diciembre de 2018 .
  155. The Internet Society (18 de abril de 2017). "Inteligencia artificial y aprendizaje automático: documento de política". Sociedad de Internet . Consultado el 11 de febrero de 2020 .
  156. ^ ab "Libro blanco: Cómo prevenir resultados discriminatorios en el aprendizaje automático". Foro Economico Mundial . 12 de marzo de 2018 . Consultado el 11 de febrero de 2020 .
  157. ^ "Inteligencia artificial explicable". www.darpa.mil . Consultado el 11 de febrero de 2020 .
  158. ^ PricewaterhouseCoopers. "El marco de IA responsable". PwC . Consultado el 11 de febrero de 2020 .
  159. ^ Heald, David (7 de septiembre de 2006). Transparencia: ¿la clave para una mejor gobernanza? . Academia Británica. doi :10.5871/bacad/9780197263839.003.0002. ISBN 978-0-19-726383-9.
  160. ^ Kemper, Jakko; Kolkman, Daan (6 de diciembre de 2019). "¿Transparente para quién? No hay responsabilidad algorítmica sin una audiencia crítica". Información, Comunicación y Sociedad . 22 (14): 2081–2096. doi : 10.1080/1369118X.2018.1477967 . ISSN  1369-118X.
  161. ^ "La Declaración de Toronto: Protección de los derechos a la igualdad y la no discriminación en los sistemas de aprendizaje automático". Observador de derechos humanos . 3 de julio de 2018 . Consultado el 11 de febrero de 2020 .
  162. ^ La Declaración de Toronto: Protección del derecho a la igualdad y la no discriminación en los sistemas de aprendizaje automático (PDF) . Observador de derechos humanos. 2018. pág. 15.
  163. ^ Floridi, Luciano; Capuchas, Josh; Beltrametti, Mónica; Chatila, Raja; Chazerand, Patrice; Dignum, Virginia; Luetge, Christoph; Madelín, Robert; Pagallo, Ugo; Rossi, Francesca; Schafer, Burkhard (1 de diciembre de 2018). "AI4People: un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones". Mentes y Máquinas . 28 (4): 703. doi :10.1007/s11023-018-9482-5. ISSN  1572-8641. PMC 6404626 . PMID  30930541. 
  164. ^ Crawford, Kate (25 de junio de 2016). "Opinión | El problema del hombre blanco de la inteligencia artificial". Los New York Times . ISSN  0362-4331 . Consultado el 11 de febrero de 2020 .
  165. ^ "La IA es el futuro, pero ¿dónde están las mujeres?". Cableado . ISSN  1059-1028 . Consultado el 11 de febrero de 2020 .
  166. ^ Nieve, Jackie. ""Estamos en una crisis de diversidad ": cofundador de Black in AI sobre lo que está envenenando los algoritmos en nuestras vidas". Revisión de tecnología del MIT . Consultado el 11 de febrero de 2020 .
  167. ^ Hao, Karen (14 de junio de 2021). "Dentro de la lucha para recuperar la IA del control de las grandes tecnologías". Revisión de tecnología del MIT . Consultado el 21 de junio de 2021 .
  168. ^ Ciston, Sarah (29 de diciembre de 2019). "La IA interseccional es esencial". Revista de Ciencia y Tecnología de las Artes . 11 (2): 3–8. doi : 10.7559/citarj.v11i2.665 . ISSN  2183-0088.
  169. ^ D'Ignazio, Catalina; Klein, Lauren F. (2020). Feminismo de datos . Prensa del MIT. ISBN 978-0262044004.
  170. ^ Cueva, Stephen; Dihal, Kanta (6 de agosto de 2020). "La blancura de la IA". Filosofía y Tecnología . 33 (4): 685–703. doi : 10.1007/s13347-020-00415-6 . ISSN  2210-5441.
  171. ^ Bondi, Isabel; Xu, lirio; Acosta Navas, Diana; Killian, Jackson A. (2021). "Imaginar comunidades: un enfoque participativo hacia la IA para el bien social". Actas de la Conferencia AAAI/ACM de 2021 sobre IA, ética y sociedad. págs. 425–436. arXiv : 2105.01774 . doi :10.1145/3461702.3462612. ISBN 9781450384735. S2CID  233740121 . Consultado el 6 de abril de 2023 , a través de ezpa.library.ualberta.ca.
  172. ^ Universidad, Stanford (18 de marzo de 2019). "La Universidad de Stanford lanza el Instituto de Inteligencia Artificial Centrada en el Humano". Noticias de Stanford . Consultado el 6 de abril de 2023 .
  173. ^ Bondi, Isabel; Xu, lirio; Acosta Navas, Diana; Killian, Jackson A. (21 de julio de 2021). "Imaginar comunidades: un enfoque participativo hacia la IA para el bien social". Actas de la Conferencia AAAI/ACM de 2021 sobre IA, ética y sociedad . págs. 425–436. arXiv : 2105.01774 . doi :10.1145/3461702.3462612. ISBN 9781450384735. S2CID  233740121.
  174. ^ Bygrave, Lee A (2001). "Perfiles automatizados". Revisión de seguridad y derecho informático . 17 (1): 17–24. doi :10.1016/s0267-3649(01)00104-2.
  175. ^ ab Veale, Michael; Edwards, Lilian (2018). "Claridad, sorpresas y más preguntas en el proyecto de orientación del Grupo de Trabajo del Artículo 29 sobre la toma de decisiones automatizada y la elaboración de perfiles" (PDF) . Revisión de seguridad y derecho informático . 34 (2): 398–404. doi :10.1016/j.clsr.2017.12.002. S2CID  4797884. SSRN  3071679.
  176. ^ Vigilante, Sandra; Mittelstadt, Brent; Floridi, Luciano (1 de mayo de 2017). "Por qué no existe en el Reglamento General de Protección de Datos el derecho a explicaciones sobre la toma de decisiones automatizada". Ley Internacional de Privacidad de Datos . 7 (2): 76–99. doi : 10.1093/idpl/ipx005 . ISSN  2044-3994.
  177. ^ Edwards, Lilian; Veale, Michael (23 de mayo de 2017). "¿Esclavo del algoritmo? Por qué el derecho a una explicación probablemente no sea el remedio que está buscando". Revisión de tecnología y derecho de Duke . 16 : 18–84. SSRN  2972855.
  178. ^ ab Singer, Natasha (2 de febrero de 2013). "Leyes de protección de datos del consumidor, un océano aparte". Los New York Times . Consultado el 26 de noviembre de 2017 .
  179. ^ Obama, Barack (12 de octubre de 2016). "Informe de la administración sobre el futuro de la inteligencia artificial". casablanca.gov . Archivos Nacionales . Consultado el 26 de noviembre de 2017 .
  180. ^ y Consejo de Tecnología, Ciencia Nacional (2016). Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial (PDF) . Gobierno de los Estados Unidos . Consultado el 26 de noviembre de 2017 .
  181. ^ Kirchner, Lauren (18 de diciembre de 2017). "La ciudad de Nueva York avanza para crear responsabilidad por los algoritmos - ProPublica". ProPública . Consultado el 28 de julio de 2018 .
  182. ^ "El Ayuntamiento de Nueva York - Archivo n.º: Int 1696-2017". legistar.council.nyc.gov . Ayuntamiento de Nueva York . Consultado el 28 de julio de 2018 .
  183. ^ Powles, Julia. "El intento audaz y defectuoso de la ciudad de Nueva York de hacer responsables a los algoritmos". El neoyorquino . Consultado el 28 de julio de 2018 .
  184. ^ "India sopesa un proyecto de ley integral de privacidad de datos, similar al RGPD de la UE". Diario de seguros . 31 de julio de 2018 . Consultado el 26 de febrero de 2019 .
  185. ^ "El proyecto de ley de protección de datos personales de 2018" (PDF) . Ministerio de Electrónica y Tecnología de la Información, Gobierno de la India. 2018 . Consultado el 29 de abril de 2022 .

Otras lecturas