Amazon Rekognition es una plataforma de visión por computadora de software como servicio (SaaS) basada en la nube que se lanzó en 2016. Ha sido vendida y utilizada por varias agencias gubernamentales de los Estados Unidos, incluido el Servicio de Inmigración y Control de Aduanas (ICE) de los EE. UU. y la policía de Orlando, Florida , así como entidades privadas.
Rekognition proporciona una serie de capacidades de visión por computadora, que se pueden dividir en dos categorías: algoritmos previamente entrenados con datos recopilados por Amazon o sus socios, y algoritmos que un usuario puede entrenar con un conjunto de datos personalizado.
A partir de julio de 2019, Rekognition proporciona las siguientes capacidades de visión por computadora. [1] [2]
A finales de 2017, la Oficina del Sheriff del condado de Washington, Oregón, comenzó a utilizar Rekognition para identificar los rostros de los sospechosos . Rekognition se comercializó como una herramienta de visión por computadora de uso general y un ingeniero que trabajaba para el condado de Washington decidió utilizar la herramienta para el análisis facial de los sospechosos. [12] [13] Rekognition se ofreció al departamento de forma gratuita, [14] y el condado de Washington se convirtió en la primera agencia policial estadounidense conocida en utilizar Rekognition. En 2018, la agencia registró más de 1.000 búsquedas faciales. El condado, según el Washington Post, en 2019 pagaba alrededor de 7 dólares al mes por todas sus búsquedas. [15] La relación fue desconocida para el público hasta mayo de 2018. [14] En 2018, Rekognition también se utilizó para ayudar a identificar celebridades durante la transmisión de una boda real. [dieciséis]
En abril de 2018, se informó que FamilySearch estaba utilizando Rekognition para permitir a sus usuarios "ver a cuál de sus antepasados se parecen más basándose en fotografías familiares". [17] A principios de 2018, el FBI también comenzó a utilizarlo como programa piloto para analizar la videovigilancia. [dieciséis]
En mayo de 2018, la ACLU informó que Orlando, Florida, estaba ejecutando un piloto que utilizaba Rekognition para el análisis facial en las fuerzas del orden, [18] y que ese piloto finalizó en julio de 2019. [19] Después del informe, [20] [21 ] el 22 de junio de 2018, Gizmodo informó que los trabajadores de Amazon habían escrito una carta al director ejecutivo, Jeff Bezos, solicitándole que dejara de vender Rekognition a las autoridades estadounidenses, en particular a ICE y Seguridad Nacional . [21] La ACLU también envió una carta a Bezos. [20] El 26 de junio de 2018, se informó que la fuerza policial de Orlando había dejado de usar Rekognition después de que expirara su contrato de prueba, reservándose el derecho de usarlo en el futuro. [20] El Departamento de Policía de Orlando dijo que "nunca habían llegado al punto de probar imágenes" debido a la infraestructura antigua y el bajo ancho de banda. [14]
En julio de 2018, la ACLU publicó una prueba que mostraba que Rekognition había emparejado falsamente a 28 miembros del Congreso con fotografías policiales, en particular congresistas de color. Posteriormente, 25 miembros de la Cámara enviaron una carta a Bezos, expresando su preocupación por Rekognition. [22] Amazon respondió diciendo que la prueba Rekognition había generado un 80 por ciento de confianza, mientras que recomendó que las fuerzas del orden solo usaran coincidencias con un 99 por ciento de confianza. [23] El Washington Post afirma que Oregon, en cambio, hace que los funcionarios elijan un resultado "al mejor de cinco", en lugar de adherirse a la recomendación. [15]
En septiembre de 2018, se informó que Mapillary estaba usando Rekognition para leer el texto de las señales de estacionamiento (por ejemplo, no parar, no estacionar u horarios de estacionamiento específicos) en las ciudades. [9]
En octubre de 2018, se informó que Amazon había presentado a principios de ese año Rekognition a la agencia de Inmigración y Control de Aduanas de EE. UU . [22] [24] Amazon defendió el uso gubernamental de Rekognition. [23]
El 1 de diciembre de 2018, se informó que 8 legisladores demócratas habían dicho en una carta que Amazon "no había proporcionado respuestas suficientes" sobre Rekognition, y escribieron que tenían "serias preocupaciones de que este tipo de producto tenga importantes problemas de precisión, lugares desproporcionados "Es una carga para las comunidades de color y podría sofocar la voluntad de los estadounidenses de ejercer sus derechos de la Primera Enmienda en público". [25]
En enero de 2019, investigadores del MIT publicaron un estudio revisado por pares que afirmaba que Rekognition tenía más dificultades para identificar mujeres de piel oscura que competidores como IBM y Microsoft . [16] En el estudio, Rekognition identificó erróneamente a las mujeres de piel más oscura como hombres el 31% de las veces, pero no cometió errores con los hombres de piel clara. [14] Amazon calificó el informe como "resultados mal interpretados" de la investigación con un "umbral de confianza predeterminado" inadecuado. [dieciséis]
En enero de 2019, los accionistas de Amazon "instaron a Amazon a dejar de vender software Rekognition a las agencias encargadas de hacer cumplir la ley". En respuesta, Amazon defendió su uso de Rekognition, pero apoyó una nueva supervisión y pautas federales para "asegurar que la tecnología de reconocimiento facial no pueda usarse para discriminar". [26] En febrero de 2019, se informó que Amazon estaba colaborando con el Instituto Nacional de Estándares y Tecnología (NIST) en el desarrollo de pruebas estandarizadas para mejorar la precisión y eliminar sesgos con el reconocimiento facial. [27] [28]
En marzo de 2019, un grupo de destacados investigadores de IA envió a Amazon una carta abierta sobre Rekognition, criticando su venta a las fuerzas del orden [26] con alrededor de 50 firmas. [dieciséis]
En abril de 2019, la Comisión de Bolsa y Valores le dijo a Amazon que tenían que votar sobre dos propuestas de accionistas que buscaban limitar el Rekognition. Amazon argumentó que las propuestas eran una "cuestión de política pública insignificante para la Compañía" no relacionada con el negocio ordinario de Amazon, pero su apelación fue denegada. [16] La votación se fijó para mayo. [15] [29] La primera propuesta fue presentada por los accionistas. [30] El 24 de mayo de 2019, el 2,4% de los accionistas votaron a favor de dejar de vender Rekognition a agencias gubernamentales, mientras que una segunda propuesta que pedía un estudio sobre Rekognition y los derechos civiles obtuvo un apoyo del 27,5%. [31]
En agosto de 2019, la ACLU volvió a utilizar Rekognition en miembros del gobierno, y 26 de 120 legisladores en California fueron marcados como coincidencias con fotografías policiales. Amazon afirmó que la ACLU estaba "haciendo mal uso" del software en las pruebas, al no descartar los resultados que no cumplían con el umbral de precisión recomendado por Amazon del 99%. [32] En agosto de 2019, hubo protestas contra el uso de Rekognition por parte de ICE para vigilar a los inmigrantes. [33]
En marzo de 2019, Amazon anunció una actualización de Rekognition que mejoraría la detección de emociones, [15] y en agosto de 2019, se añadió "miedo" a las emociones que Rekognition podía detectar. [34] [35] [36]
En junio de 2020, Amazon anunció que estaba implementando una moratoria de un año sobre el uso policial de Rekognition, en respuesta a las protestas de George Floyd . [37]
El Departamento de Justicia reveló que el FBI está iniciando el uso de Amazon Rekognition. [38] El inventario de IA del Departamento de Justicia reveló que el "Proyecto Tyr" del FBI tiene como objetivo personalizar Rekognition para identificar desnudez, armas, explosivos y otra información de medios adquiridos legalmente. [39]
En 2018, los investigadores del MIT Joy Buolamwini y Timnit Gebru publicaron un estudio llamado Gender Shades. [40] [41] En este estudio, se recopiló un conjunto de imágenes y los rostros en las imágenes se etiquetaron con información sobre la posición del rostro, el género y el tono de piel. Las imágenes se ejecutaron a través de plataformas de reconocimiento facial SaaS de Face++ , IBM y Microsoft . En estas tres plataformas, los clasificadores obtuvieron mejores resultados en rostros masculinos (con tasas de error en rostros femeninos entre un 8,1% y un 20,6% más altas que las tasas de error en rostros masculinos) y obtuvieron peores resultados en rostros femeninos oscuros (con tasas de error que oscilan entre 20,8% a 30,4%). Los autores plantearon la hipótesis de que esta discrepancia se debe principalmente a que Megvii, IBM y Microsoft tienen más hombres claros que mujeres oscuras en sus datos de entrenamiento, es decir, sesgo en el conjunto de datos.
En enero de 2019, los investigadores Inioluwa Deborah Raji y Joy Buolamwini publicaron un artículo de seguimiento que realizó el experimento nuevamente un año después, en las últimas versiones de las mismas tres plataformas de reconocimiento facial SaaS, más dos plataformas adicionales: Kairos y Amazon Rekognition. [42] [43] Si bien las tasas de error generales de los sistemas mejoraron con respecto al año anterior, los cinco sistemas nuevamente funcionaron mejor en rostros masculinos que en rostros femeninos oscuros.