Un sistema de reconocimiento facial [1] es una tecnología que puede hacer coincidir un rostro humano a partir de una imagen digital o un fotograma de vídeo con una base de datos de rostros. Este tipo de sistema se emplea normalmente para autenticar a los usuarios a través de servicios de verificación de identidad y funciona localizando y midiendo los rasgos faciales a partir de una imagen determinada. [2]
El desarrollo de sistemas similares comenzó en la década de 1960, comenzando como una forma de aplicación informática . Desde su inicio, los sistemas de reconocimiento facial han visto usos más amplios en los últimos tiempos en teléfonos inteligentes y en otras formas de tecnología, como la robótica . Debido a que el reconocimiento facial computarizado implica la medición de las características fisiológicas de un humano, los sistemas de reconocimiento facial se clasifican como biometría . Aunque la precisión de los sistemas de reconocimiento facial como tecnología biométrica es menor que el reconocimiento de iris , la adquisición de imágenes de huellas dactilares , el reconocimiento de la palma o el reconocimiento de voz , se adopta ampliamente debido a su proceso sin contacto. [3] Los sistemas de reconocimiento facial se han implementado en la interacción avanzada entre humanos y computadoras , la videovigilancia , la aplicación de la ley , el control de pasajeros, las decisiones sobre empleo y vivienda y la indexación automática de imágenes. [4] [5]
Los sistemas de reconocimiento facial son utilizados hoy en día en todo el mundo por gobiernos y empresas privadas. [6] Su eficacia varía, y algunos sistemas han sido desechados anteriormente debido a su ineficacia. El uso de sistemas de reconocimiento facial también ha suscitado controversia, con afirmaciones de que los sistemas violan la privacidad de los ciudadanos, suelen realizar identificaciones incorrectas, fomentan las normas de género [7] [8] y la elaboración de perfiles raciales [9] y no protegen datos biométricos importantes. La aparición de medios sintéticos como los deepfakes también ha suscitado preocupaciones sobre su seguridad. [10] Estas afirmaciones han llevado a la prohibición de los sistemas de reconocimiento facial en varias ciudades de Estados Unidos . [11] Las crecientes preocupaciones sociales llevaron a la empresa de redes sociales Meta Platforms a cerrar su sistema de reconocimiento facial de Facebook en 2021, eliminando los datos de escaneo facial de más de mil millones de usuarios. [12] [13] El cambio representó uno de los mayores cambios en el uso del reconocimiento facial en la historia de la tecnología. IBM también dejó de ofrecer tecnología de reconocimiento facial debido a preocupaciones similares. [14]
El reconocimiento facial automatizado fue iniciado en la década de 1960 por Woody Bledsoe , Helen Chan Wolf y Charles Bisson, cuyo trabajo se centró en enseñar a las computadoras a reconocer rostros humanos. [15] Su primer proyecto de reconocimiento facial se denominó "hombre-máquina" porque un humano primero necesitaba establecer las coordenadas de los rasgos faciales en una fotografía antes de que una computadora pudiera usarlas para el reconocimiento. Usando una tableta gráfica , un humano señalaba las coordenadas de los rasgos faciales, como los centros de las pupilas, las esquinas internas y externas de los ojos y el pico de viuda en la línea del cabello. Las coordenadas se usaban para calcular 20 distancias individuales, incluido el ancho de la boca y de los ojos. Un humano podía procesar alrededor de 40 imágenes por hora, creando una base de datos de estas distancias calculadas. Luego, una computadora compararía automáticamente las distancias de cada fotografía, calcularía la diferencia entre las distancias y devolvería los registros cerrados como una posible coincidencia. [15]
En 1970, Takeo Kanade hizo una demostración pública de un sistema de reconocimiento facial que localizaba rasgos anatómicos como el mentón y calculaba la relación de distancia entre los rasgos faciales sin intervención humana. Pruebas posteriores revelaron que el sistema no siempre podía identificar de forma fiable los rasgos faciales. No obstante, el interés por el tema creció y en 1977 Kanade publicó el primer libro detallado sobre la tecnología de reconocimiento facial. [16]
En 1993, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y el Laboratorio de Investigación del Ejército (ARL) establecieron el programa de tecnología de reconocimiento facial FERET para desarrollar "capacidades de reconocimiento facial automático" que pudieran emplearse en un entorno productivo de la vida real "para ayudar al personal de seguridad, inteligencia y aplicación de la ley en el desempeño de sus funciones". Se evaluaron los sistemas de reconocimiento facial que se habían probado en laboratorios de investigación. Las pruebas FERET descubrieron que, si bien el rendimiento de los sistemas de reconocimiento facial automático existentes variaba, un puñado de métodos existentes podrían usarse de manera viable para reconocer rostros en imágenes fijas tomadas en un entorno controlado. [17] Las pruebas FERET generaron tres empresas estadounidenses que vendían sistemas de reconocimiento facial automático. Vision Corporation y Miros Inc fueron fundadas en 1994 por investigadores que utilizaron los resultados de las pruebas FERET como argumento de venta. Viisage Technology fue fundada por un contratista de defensa de tarjetas de identificación en 1996 para explotar comercialmente los derechos del algoritmo de reconocimiento facial desarrollado por Alex Pentland en el MIT . [18]
Tras la prueba de reconocimiento facial de FERET de 1993, las oficinas del Departamento de Vehículos Motorizados (DMV) de Virginia Occidental y Nuevo México se convirtieron en las primeras oficinas del DMV en utilizar sistemas automatizados de reconocimiento facial para evitar que las personas obtuvieran múltiples licencias de conducir con diferentes nombres. Las licencias de conducir en los Estados Unidos eran en ese momento una forma comúnmente aceptada de identificación con fotografía . Las oficinas del DMV en todo Estados Unidos estaban experimentando una actualización tecnológica y estaban en proceso de establecer bases de datos de fotografías de identificación digital. Esto permitió a las oficinas del DMV implementar los sistemas de reconocimiento facial en el mercado para buscar fotografías de nuevas licencias de conducir en la base de datos existente del DMV. [19] Las oficinas del DMV se convirtieron en uno de los primeros mercados importantes para la tecnología de reconocimiento facial automatizado e introdujeron a los ciudadanos estadounidenses al reconocimiento facial como un método estándar de identificación. [20] El aumento de la población carcelaria de Estados Unidos en la década de 1990 impulsó a los estados de Estados Unidos a establecer sistemas de identificación conectados y automatizados que incorporaban bases de datos biométricas digitales , en algunos casos esto incluía el reconocimiento facial. En 1999, Minnesota incorporó el sistema de reconocimiento facial FaceIT de Visionics a un sistema de registro de fotografías policiales que permitió a la policía, jueces y funcionarios judiciales rastrear a criminales en todo el estado. [21]
Hasta la década de 1990, los sistemas de reconocimiento facial se desarrollaron principalmente mediante el uso de retratos fotográficos de rostros humanos. La investigación sobre el reconocimiento facial para localizar de forma fiable un rostro en una imagen que contiene otros objetos ganó fuerza a principios de la década de 1990 con el análisis de componentes principales (PCA). El método PCA de detección de rostros también se conoce como Eigenface y fue desarrollado por Matthew Turk y Alex Pentland. [22] Turk y Pentland combinaron el enfoque conceptual del teorema de Karhunen-Loève y el análisis factorial para desarrollar un modelo lineal . Los Eigenfaces se determinan en función de las características globales y ortogonales de los rostros humanos. Un rostro humano se calcula como una combinación ponderada de varios Eigenfaces. Debido a que se utilizaron pocos Eigenfaces para codificar rostros humanos de una población determinada, el método de detección de rostros PCA de Turk y Pentland redujo en gran medida la cantidad de datos que debían procesarse para detectar un rostro. En 1994, Pentland definió las características de Eigenface, incluidos los ojos, bocas y narices propios, para avanzar en el uso de PCA en el reconocimiento facial. En 1997, el método PCA Eigenface de reconocimiento facial [23] se mejoró mediante el uso del análisis discriminante lineal (LDA) para producir Fisherfaces . [24] Los Fisherfaces LDA se utilizaron predominantemente en el reconocimiento facial basado en características de PCA. Mientras que los Eigenfaces también se utilizaron para la reconstrucción facial. En estos enfoques no se calcula ninguna estructura global del rostro que vincule los rasgos o partes faciales. [25]
A finales de los años 90, los enfoques basados puramente en características para el reconocimiento facial fueron superados por el sistema Bochum, que utilizaba un filtro Gabor para registrar las características del rostro y calculaba una cuadrícula de la estructura del rostro para vincularlas. [26] Christoph von der Malsburg y su equipo de investigación de la Universidad de Bochum desarrollaron el Elastic Bunch Graph Matching a mediados de los años 90 para extraer un rostro de una imagen utilizando la segmentación de la piel. [22] En 1997, el método de detección de rostros desarrollado por Malsburg superó a la mayoría de los demás sistemas de detección facial del mercado. El llamado "sistema Bochum" de detección de rostros se vendió comercialmente en el mercado como ZN-Face a operadores de aeropuertos y otros lugares concurridos. El software era "lo suficientemente robusto como para realizar identificaciones a partir de vistas de rostros no perfectas. También puede ver a menudo a través de impedimentos para la identificación como bigotes, barbas, peinados cambiados y anteojos, incluso anteojos de sol". [27]
La detección de rostros en tiempo real en secuencias de vídeo se hizo posible en 2001 con el marco de detección de objetos Viola-Jones para rostros. [28] Paul Viola y Michael Jones combinaron su método de detección de rostros con el enfoque de características similar a Haar para el reconocimiento de objetos en imágenes digitales para lanzar AdaBoost , el primer detector de rostros de vista frontal en tiempo real. [29] Para 2015, el algoritmo Viola-Jones se había implementado utilizando pequeños detectores de baja potencia en dispositivos portátiles y sistemas integrados . Por lo tanto, el algoritmo Viola-Jones no solo ha ampliado la aplicación práctica de los sistemas de reconocimiento facial, sino que también se ha utilizado para admitir nuevas funciones en interfaces de usuario y teleconferencias . [30]
Ucrania está utilizando el software de reconocimiento facial Clearview AI, con sede en Estados Unidos , para identificar a los soldados rusos muertos. Ucrania ha realizado 8.600 búsquedas e identificado a las familias de 582 soldados rusos fallecidos. La sección de voluntarios informáticos del ejército ucraniano que utiliza el software se está poniendo en contacto posteriormente con las familias de los soldados fallecidos para concienciar sobre las actividades rusas en Ucrania. El objetivo principal es desestabilizar al gobierno ruso. Puede verse como una forma de guerra psicológica . Alrededor de 340 funcionarios del gobierno ucraniano en cinco ministerios gubernamentales están utilizando la tecnología. Se utiliza para atrapar espías que podrían intentar entrar en Ucrania. [31]
La base de datos de reconocimiento facial de Clearview AI solo está disponible para agencias gubernamentales que solo pueden usar la tecnología para ayudar en el curso de investigaciones policiales o en conexión con la seguridad nacional. [32]
Clearview AI donó el software a Ucrania y se cree que Rusia lo está utilizando para encontrar activistas contra la guerra. Clearview AI fue diseñado originalmente para las fuerzas de seguridad estadounidenses, pero su uso en tiempos de guerra plantea nuevas preocupaciones éticas. Stephen Hare, un experto en vigilancia con sede en Londres, teme que pueda hacer que los ucranianos parezcan inhumanos: "¿Funciona realmente? ¿O está haciendo que [los rusos] digan: 'Miren a estos ucranianos crueles y sin ley, haciendo esto a nuestros muchachos'?" [33]
Si bien los humanos pueden reconocer rostros sin mucho esfuerzo, [34] el reconocimiento facial es un problema de reconocimiento de patrones desafiante en informática . Los sistemas de reconocimiento facial intentan identificar un rostro humano, que es tridimensional y cambia de apariencia con la iluminación y la expresión facial, basándose en su imagen bidimensional. Para lograr esta tarea computacional, los sistemas de reconocimiento facial realizan cuatro pasos. En primer lugar, se utiliza la detección de rostros para segmentar el rostro del fondo de la imagen. En el segundo paso, la imagen segmentada del rostro se alinea para tener en cuenta la pose del rostro , el tamaño de la imagen y las propiedades fotográficas, como la iluminación y la escala de grises . El propósito del proceso de alineación es permitir la localización precisa de los rasgos faciales en el tercer paso, la extracción de los rasgos faciales. Se localizan y miden rasgos como los ojos, la nariz y la boca en la imagen para representar el rostro. El vector de características del rostro así establecido se compara luego, en el cuarto paso, con una base de datos de rostros. [35]
Algunos algoritmos de reconocimiento facial identifican los rasgos faciales extrayendo puntos de referencia o rasgos de una imagen del rostro del sujeto. Por ejemplo, un algoritmo puede analizar la posición relativa, el tamaño y/o la forma de los ojos, la nariz, los pómulos y la mandíbula. [36] Estas características se utilizan luego para buscar otras imágenes con características coincidentes. [37]
Otros algoritmos normalizan una galería de imágenes de rostros y luego comprimen los datos de los mismos, guardando solo los datos de la imagen que son útiles para el reconocimiento facial. Luego, se compara una imagen de prueba con los datos de los rostros. [38] Uno de los primeros sistemas exitosos [39] se basa en técnicas de comparación de plantillas [40] aplicadas a un conjunto de rasgos faciales salientes, lo que proporciona una especie de representación comprimida de los rostros.
Los algoritmos de reconocimiento se pueden dividir en dos enfoques principales: geométrico, que analiza las características distintivas, o fotométrico, que es un enfoque estadístico que destila una imagen en valores y los compara con plantillas para eliminar las variaciones. Algunos clasifican estos algoritmos en dos grandes categorías: modelos holísticos y basados en características. Los primeros intentan reconocer el rostro en su totalidad, mientras que los basados en características se subdividen en componentes, como por ejemplo según las características, y analizan cada una de ellas, así como su ubicación espacial con respecto a otras características. [41]
Los algoritmos de reconocimiento populares incluyen el análisis de componentes principales utilizando caras propias , el análisis discriminante lineal , la correspondencia de gráficos de grupos elásticos utilizando el algoritmo Fisherface, el modelo oculto de Markov , el aprendizaje de subespacios multilineales utilizando la representación tensorial y la correspondencia de enlaces dinámicos motivados neuronalmente . [ cita requerida ] [42] Los sistemas de reconocimiento facial modernos hacen un uso cada vez mayor de técnicas de aprendizaje automático como el aprendizaje profundo . [43]
Para permitir la identificación humana a distancia (HID), las imágenes de rostros de baja resolución se mejoran utilizando alucinaciones faciales . En las imágenes de CCTV, los rostros suelen ser muy pequeños. Pero debido a que los algoritmos de reconocimiento facial que identifican y trazan los rasgos faciales requieren imágenes de alta resolución, se han desarrollado técnicas de mejora de la resolución para permitir que los sistemas de reconocimiento facial funcionen con imágenes que se han capturado en entornos con una alta relación señal-ruido . Los algoritmos de alucinaciones faciales que se aplican a las imágenes antes de que esas imágenes se envíen al sistema de reconocimiento facial utilizan aprendizaje automático basado en ejemplos con sustitución de píxeles o índices de distribución del vecino más cercano que también pueden incorporar características faciales demográficas y relacionadas con la edad. El uso de técnicas de alucinaciones faciales mejora el rendimiento de los algoritmos de reconocimiento facial de alta resolución y puede usarse para superar las limitaciones inherentes de los algoritmos de súper resolución. Las técnicas de alucinaciones faciales también se utilizan para pretratar imágenes donde los rostros están disfrazados. Aquí se elimina el disfraz, como las gafas de sol, y se aplica el algoritmo de alucinaciones faciales a la imagen. Dichos algoritmos de alucinaciones faciales deben entrenarse en imágenes de rostros similares con y sin disfraz. Para rellenar el área descubierta al quitar el disfraz, los algoritmos de alucinación facial necesitan mapear correctamente todo el estado de la cara, lo que puede no ser posible debido a la expresión facial momentánea capturada en la imagen de baja resolución. [44]
La técnica de reconocimiento facial tridimensional utiliza sensores 3D para capturar información sobre la forma de una cara. Esta información se utiliza luego para identificar características distintivas en la superficie de una cara, como el contorno de las cuencas de los ojos, la nariz y el mentón. [45] Una ventaja del reconocimiento facial 3D es que no se ve afectado por los cambios en la iluminación como otras técnicas. También puede identificar una cara desde una variedad de ángulos de visión, incluida una vista de perfil. [45] [37] Los puntos de datos tridimensionales de una cara mejoran enormemente la precisión del reconocimiento facial. La investigación de reconocimiento facial 3D-dimensional es posible gracias al desarrollo de sensores sofisticados que proyectan luz estructurada sobre la cara. [46] La técnica de coincidencia 3D es sensible a las expresiones, por lo tanto, los investigadores de Technion aplicaron herramientas de geometría métrica para tratar las expresiones como isometrías . [47] Un nuevo método para capturar imágenes 3D de caras utiliza tres cámaras de seguimiento que apuntan en diferentes ángulos; una cámara apuntará al frente del sujeto, la segunda al costado y la tercera en ángulo. Todas estas cámaras trabajarán juntas para poder rastrear el rostro de un sujeto en tiempo real y poder detectar y reconocer el rostro. [48]
Una forma diferente de tomar datos de entrada para el reconocimiento facial es mediante el uso de cámaras térmicas , mediante este procedimiento las cámaras solo detectarán la forma de la cabeza e ignorarán los accesorios del sujeto como anteojos, sombreros o maquillaje. [49] A diferencia de las cámaras convencionales, las cámaras térmicas pueden capturar imágenes faciales incluso en condiciones de poca luz y nocturnas sin usar un flash y exponer la posición de la cámara. [50] Sin embargo, las bases de datos para el reconocimiento facial son limitadas. Los esfuerzos para crear bases de datos de imágenes térmicas de rostros se remontan a 2004. [49] Para 2016, existían varias bases de datos, incluidas la IIITD-PSE y la base de datos térmica de rostros de Notre Dame. [51] Los sistemas actuales de reconocimiento térmico de rostros no pueden detectar de manera confiable un rostro en una imagen térmica que se ha tomado de un entorno exterior. [52]
En 2018, investigadores del Laboratorio de Investigación del Ejército de EE. UU. (ARL) desarrollaron una técnica que les permitiría hacer coincidir las imágenes faciales obtenidas con una cámara térmica con las de las bases de datos que se capturaron con una cámara convencional. [53] Conocido como un método de síntesis de espectro cruzado debido a la forma en que une el reconocimiento facial de dos modalidades de imágenes diferentes, este método sintetiza una sola imagen analizando múltiples regiones y detalles faciales. [54] Consiste en un modelo de regresión no lineal que mapea una imagen térmica específica en una imagen facial visible correspondiente y un problema de optimización que proyecta la proyección latente nuevamente en el espacio de la imagen. [50] Los científicos de ARL han notado que el enfoque funciona combinando información global (es decir, características en todo el rostro) con información local (es decir, características relacionadas con los ojos, la nariz y la boca). [55] Según las pruebas de rendimiento realizadas en ARL, el modelo de síntesis de espectro cruzado de múltiples regiones demostró una mejora del rendimiento de aproximadamente el 30% con respecto a los métodos de referencia y aproximadamente el 5% con respecto a los métodos de última generación. [54]
Fundada en 2013, Looksery recaudó dinero para su aplicación de modificación facial en Kickstarter. Después de una exitosa financiación colectiva, Looksery se lanzó en octubre de 2014. La aplicación permite chatear por video con otras personas a través de un filtro especial para rostros que modifica el aspecto de los usuarios. Las aplicaciones de aumento de imágenes que ya estaban en el mercado, como Facetune y Perfect365, se limitaban a imágenes estáticas, mientras que Looksery permitía la realidad aumentada a los videos en vivo. A fines de 2015, SnapChat compró Looksery, que luego se convertiría en su función de lentes emblemática. [56] Las aplicaciones de filtro de Snapchat utilizan tecnología de detección de rostros y, en función de los rasgos faciales identificados en una imagen, se coloca una máscara de malla 3D sobre el rostro. [57] Una variedad de tecnologías intentan engañar al software de reconocimiento facial mediante el uso de máscaras anti-reconocimiento facial . [58]
DeepFace es un sistema de reconocimiento facial de aprendizaje profundo creado por un grupo de investigación de Facebook . Identifica rostros humanos en imágenes digitales. Emplea una red neuronal de nueve capas con más de 120 millones de pesos de conexión y fue entrenado con cuatro millones de imágenes cargadas por usuarios de Facebook. [59] [60] Se dice que el sistema tiene una precisión del 97 %, en comparación con el 85 % del sistema de identificación de próxima generación del FBI . [61]
El algoritmo de TikTok ha sido considerado especialmente eficaz, pero muchos se quedaron preguntándose cuál era la programación exacta que hacía que la aplicación fuera tan eficaz a la hora de adivinar el contenido deseado por el usuario. [62] En junio de 2020, TikTok publicó una declaración sobre la página "Para ti" y cómo recomendaban vídeos a los usuarios, que no incluían reconocimiento facial. [63] Sin embargo, en febrero de 2021, TikTok aceptó un acuerdo de 92 millones de dólares en una demanda estadounidense que alegaba que la aplicación había utilizado el reconocimiento facial tanto en los vídeos de los usuarios como en su algoritmo para identificar la edad, el género y la etnia. [64]
El uso emergente del reconocimiento facial está en el uso de servicios de verificación de identidad . Muchas empresas y otros están trabajando en el mercado ahora para proporcionar estos servicios a bancos, ICO y otros negocios electrónicos. [65] El reconocimiento facial se ha aprovechado como una forma de autenticación biométrica para varias plataformas y dispositivos informáticos; [37] Android 4.0 "Ice Cream Sandwich" agregó reconocimiento facial usando la cámara frontal de un teléfono inteligente como un medio para desbloquear dispositivos, [66] [67] mientras que Microsoft introdujo el inicio de sesión de reconocimiento facial en su consola de videojuegos Xbox 360 a través de su accesorio Kinect , [68] así como Windows 10 a través de su plataforma "Windows Hello" (que requiere una cámara iluminada por infrarrojos). [69] En 2017, el teléfono inteligente iPhone X de Apple introdujo el reconocimiento facial a la línea de productos con su plataforma " Face ID ", que utiliza un sistema de iluminación infrarroja. [70]
Apple introdujo Face ID en el iPhone X como un sucesor de autenticación biométrica del Touch ID , un sistema basado en huellas dactilares . Face ID tiene un sensor de reconocimiento facial que consta de dos partes: un módulo "Romeo" que proyecta más de 30.000 puntos infrarrojos sobre la cara del usuario y un módulo "Juliet" que lee el patrón. [71] El patrón se envía a un "Enclave Seguro" local en la unidad central de procesamiento (CPU) del dispositivo para confirmar una coincidencia con la cara del propietario del teléfono. [72]
El patrón facial no es accesible para Apple. El sistema no funcionará con los ojos cerrados, en un esfuerzo por evitar el acceso no autorizado. [72] La tecnología aprende de los cambios en la apariencia de un usuario y, por lo tanto, funciona con sombreros, bufandas, anteojos y muchas gafas de sol, barba y maquillaje. [73] También funciona en la oscuridad. Esto se hace utilizando un "Iluminador de inundación", que es un flash infrarrojo dedicado que arroja luz infrarroja invisible sobre la cara del usuario para leer correctamente los 30.000 puntos faciales. [74]
Los algoritmos de reconocimiento facial pueden ayudar a diagnosticar algunas enfermedades utilizando características específicas de la nariz, las mejillas y otras partes del rostro humano . [75] Basándose en conjuntos de datos desarrollados, el aprendizaje automático se ha utilizado para identificar anomalías genéticas basándose únicamente en las dimensiones faciales. [76] La FRT también se ha utilizado para verificar a los pacientes antes de los procedimientos quirúrgicos.
En marzo de 2022, según una publicación de Forbes, FDNA, una empresa de desarrollo de IA, afirmó que en el espacio de 10 años, han trabajado con genetistas para desarrollar una base de datos de alrededor de 5.000 enfermedades y 1.500 de ellas pueden detectarse con algoritmos de reconocimiento facial. [77]
En una entrevista, el director de la Autoridad Nacional de Salud, el Dr. RS Sharma, dijo que la tecnología de reconocimiento facial se utilizaría junto con Aadhaar para autenticar la identidad de las personas que buscan vacunas. [78] Diez organizaciones de derechos humanos y derechos digitales y más de 150 personas firmaron una declaración de la Internet Freedom Foundation que alertó contra el despliegue de la tecnología de reconocimiento facial en el proceso de vacunación del gobierno central. [79] La implementación de un sistema propenso a errores sin una legislación adecuada que contenga salvaguardas obligatorias privaría a los ciudadanos de servicios esenciales y vincular esta tecnología no probada al despliegue de la vacunación en la India solo excluirá a las personas del sistema de distribución de vacunas. [80]
En julio de 2021, un comunicado de prensa del Gobierno de Meghalaya afirmó que se utilizaría la tecnología de reconocimiento facial (FRT) para verificar la identidad de los pensionistas a fin de emitir un Certificado de Vida Digital mediante la aplicación móvil "Verificación del Certificado de Vida del Pensionista" . [81] El aviso, según el comunicado de prensa, pretende ofrecer a los pensionistas "una interfaz segura, sencilla y sin complicaciones para verificar su vida ante las Autoridades de Pago de Pensiones desde la comodidad de sus hogares mediante teléfonos inteligentes". El Sr. Jade Jeremiah Lyngdoh, estudiante de derecho, envió un aviso legal a las autoridades pertinentes destacando que "la aplicación se ha implementado sin ninguna legislación de apoyo que regule el procesamiento de datos personales y, por lo tanto, carece de legalidad y el Gobierno no está facultado para procesar datos". [82]
La Fuerza Fronteriza de Australia y el Servicio de Aduanas de Nueva Zelanda han establecido un sistema automatizado de procesamiento de fronteras llamado SmartGate que utiliza el reconocimiento facial, que compara el rostro del viajero con los datos del microchip del pasaporte electrónico . [83] [84] Todos los aeropuertos internacionales canadienses utilizan el reconocimiento facial como parte del programa de quiosco de inspección primaria que compara el rostro de un viajero con su foto almacenada en el pasaporte electrónico . Este programa llegó por primera vez al Aeropuerto Internacional de Vancouver a principios de 2017 y se extendió a todos los aeropuertos internacionales restantes en 2018-2019. [85]
Las fuerzas policiales del Reino Unido han estado probando la tecnología de reconocimiento facial en vivo en eventos públicos desde 2015. [86] En mayo de 2017, un hombre fue arrestado usando un sistema de reconocimiento facial automático (AFR) montado en una camioneta operada por la Policía de Gales del Sur. Ars Technica informó que "esta parece ser la primera vez que [AFR] ha llevado a un arresto". [87] Sin embargo, un informe de 2018 de Big Brother Watch encontró que estos sistemas eran hasta un 98% inexactos. [86] El informe también reveló que dos fuerzas policiales del Reino Unido, la Policía de Gales del Sur y la Policía Metropolitana , estaban usando reconocimiento facial en vivo en eventos públicos y en espacios públicos. [88] En septiembre de 2019, el uso del reconocimiento facial por parte de la Policía de Gales del Sur fue declarado legal. [88] El reconocimiento facial en vivo se ha probado desde 2016 en las calles de Londres y la Policía Metropolitana lo utilizará de forma regular desde principios de 2020. [89] En agosto de 2020, el Tribunal de Apelación dictaminó que la forma en que la Policía de Gales del Sur había utilizado el sistema de reconocimiento facial en 2017 y 2018 violaba los derechos humanos. [90]
Sin embargo, en 2024 la Policía Metropolitana ya utilizaba la técnica con una base de datos de 16.000 sospechosos, lo que dio lugar a más de 360 detenciones, entre ellas violadores y una persona buscada por lesiones corporales graves durante ocho años. Afirman que la tasa de falsos positivos es de solo 1 entre 6.000. Las fotos de las personas no identificadas por el sistema se eliminan inmediatamente. [91]
El Departamento de Estado de los EE. UU. opera uno de los sistemas de reconocimiento facial más grandes del mundo con una base de datos de 117 millones de adultos estadounidenses, con fotos generalmente extraídas de fotos de licencias de conducir. [92] Aunque todavía está lejos de completarse, se está utilizando en ciertas ciudades para dar pistas sobre quién estaba en la foto. El FBI usa las fotos como una herramienta de investigación, no para una identificación positiva. [93] A partir de 2016, [actualizar]el reconocimiento facial se estaba utilizando para identificar a personas en fotos tomadas por la policía en San Diego y Los Ángeles (no en video en tiempo real, y solo contra fotos de arresto) [94] y se planeó su uso en Virginia Occidental y Dallas . [95]
En los últimos años, Maryland ha utilizado el reconocimiento facial comparando los rostros de las personas con las fotos de sus carnets de conducir. El sistema generó controversia cuando se utilizó en Baltimore para arrestar a manifestantes rebeldes tras la muerte de Freddie Gray bajo custodia policial. [96] Muchos otros estados están utilizando o desarrollando un sistema similar, pero algunos estados tienen leyes que prohíben su uso.
El FBI también ha instituido su programa de Identificación de Próxima Generación para incluir el reconocimiento facial, así como biometría más tradicional como huellas dactilares y escaneos de iris , que pueden extraerse de bases de datos tanto criminales como civiles. [97] La Oficina de Responsabilidad del Gobierno federal criticó al FBI por no abordar varias preocupaciones relacionadas con la privacidad y la precisión. [98]
A partir de 2018, la Oficina de Aduanas y Protección Fronteriza de Estados Unidos implementó "escáneres faciales biométricos" en los aeropuertos estadounidenses. Los pasajeros que toman vuelos internacionales de salida pueden completar el proceso de check-in, seguridad y embarque después de obtener imágenes faciales capturadas y verificadas mediante la comparación de sus fotos de identificación almacenadas en la base de datos de la CBP. Las imágenes capturadas para viajeros con ciudadanía estadounidense se eliminarán en un plazo de hasta 12 horas. La Administración de Seguridad del Transporte (TSA) había expresado su intención de adoptar un programa similar para los viajes aéreos nacionales durante el proceso de control de seguridad en el futuro. La Unión Estadounidense por las Libertades Civiles es una de las organizaciones que se oponen al programa, con el argumento de que el programa se utilizará con fines de vigilancia. [99]
En 2019, los investigadores informaron que el Servicio de Inmigración y Control de Aduanas (ICE) utiliza software de reconocimiento facial en las bases de datos de licencias de conducir estatales, incluso en algunos estados que otorgan licencias a inmigrantes indocumentados. [98]
En diciembre de 2022, 16 aeropuertos nacionales importantes de EE. UU. comenzaron a probar tecnología de reconocimiento facial, donde quioscos con cámaras verifican las fotos de los documentos de identidad de los viajeros para asegurarse de que los pasajeros no sean impostores. [100]
En 2006, el gobierno chino inició el proyecto "Skynet" (天網)) para implementar la vigilancia por CCTV en todo el país y, a partir de 2018, [actualizar]se han implementado 20 millones de cámaras, muchas de las cuales son capaces de reconocimiento facial en tiempo real, en todo el país para este proyecto. [101] Algunos funcionarios afirman que el sistema Skynet actual puede escanear a toda la población china en un segundo y a la población mundial en dos segundos. [102]
En 2017, la policía de Qingdao logró identificar a veinticinco sospechosos buscados mediante un equipo de reconocimiento facial en el Festival Internacional de la Cerveza de Qingdao, uno de los cuales llevaba 10 años prófugo. [103] El equipo funciona grabando un videoclip de 15 segundos y tomando varias instantáneas del sujeto. Esos datos se comparan y analizan con imágenes de la base de datos del departamento de policía y, en 20 minutos, se puede identificar al sujeto con una precisión del 98,1%. [104]
En 2018, la policía china en Zhengzhou y Beijing utilizó gafas inteligentes para tomar fotografías que se comparan con una base de datos del gobierno que utiliza reconocimiento facial para identificar sospechosos, recuperar una dirección y rastrear a personas que se mueven más allá de sus áreas de origen. [105] [106]
A finales de 2017, [actualizar]China ha implementado tecnología de reconocimiento facial e inteligencia artificial en Xinjiang . Los periodistas que visitaron la región encontraron cámaras de vigilancia instaladas cada cien metros aproximadamente en varias ciudades, así como puestos de control de reconocimiento facial en áreas como gasolineras, centros comerciales y entradas de mezquitas. [107] [108] En mayo de 2019, Human Rights Watch informó haber encontrado código Face++ en la Plataforma Integrada de Operaciones Conjuntas (IJOP), una aplicación de vigilancia policial utilizada para recopilar datos y rastrear a la comunidad uigur en Xinjiang . [109] Human Rights Watch publicó una corrección a su informe en junio de 2019 indicando que la empresa china Megvii no parecía haber colaborado en IJOP y que el código Face++ en la aplicación no funcionaba. [110] En febrero de 2020, tras el brote de coronavirus , Megvii solicitó un préstamo bancario para optimizar el sistema de detección de temperatura corporal que había lanzado para ayudar a identificar a las personas con síntomas de una infección por coronavirus en multitudes. En la solicitud de préstamo, Megvii afirmó que necesitaba mejorar la precisión en la identificación de personas enmascaradas. [111]
Muchos lugares públicos en China cuentan con equipos de reconocimiento facial, incluidas estaciones de tren, aeropuertos, atracciones turísticas, exposiciones y edificios de oficinas. En octubre de 2019, un profesor de la Universidad de Ciencia y Tecnología de Zhejiang demandó al Parque Safari de Hangzhou por abusar de la información biométrica privada de los clientes. El parque safari utiliza tecnología de reconocimiento facial para verificar las identidades de los titulares de su Tarjeta Anual. Se estima que 300 sitios turísticos en China han instalado sistemas de reconocimiento facial y los utilizan para admitir visitantes. Se informa que este caso es el primero sobre el uso de sistemas de reconocimiento facial en China. [112] En agosto de 2020, Radio Free Asia informó que en 2019 Geng Guanjun, un ciudadano de la ciudad de Taiyuan que había utilizado la aplicación WeChat de Tencent para reenviar un video a un amigo en los Estados Unidos, fue posteriormente condenado por el cargo del delito de "provocar peleas y problemas". Los documentos judiciales mostraron que la policía china utilizó un sistema de reconocimiento facial para identificar a Geng Guanjun como un "activista democrático en el extranjero" y que los departamentos de gestión de redes y propaganda de China monitorean directamente a los usuarios de WeChat. [113]
En 2019, los manifestantes en Hong Kong destruyeron farolas inteligentes en medio de preocupaciones de que pudieran contener cámaras y sistemas de reconocimiento facial utilizados para la vigilancia por las autoridades chinas. [114] Los grupos de derechos humanos han criticado al gobierno chino por usar tecnología de reconocimiento facial de inteligencia artificial en su represión contra los uigures, [115] cristianos [116] y practicantes de Falun Gong. [117] [118]
Aunque la tecnología de reconocimiento facial (FRT) no es totalmente precisa, [119] la policía de la India la está utilizando cada vez más con fines de identificación. Los sistemas FRT generan una puntuación de coincidencia de probabilidad, o una puntuación de confianza entre el sospechoso que se va a identificar y la base de datos de criminales identificados que está a disposición de la policía. El Sistema Nacional Automatizado de Reconocimiento Facial (AFRS) [120] ya está siendo desarrollado por la Oficina Nacional de Registros Criminales (NCRB), un organismo constituido bajo el Ministerio del Interior. El proyecto busca desarrollar e implementar una base de datos nacional de fotografías que se ajuste a un sistema de tecnología de reconocimiento facial por parte de las agencias de seguridad centrales y estatales. La Fundación para la Libertad en Internet ha señalado sus preocupaciones con respecto al proyecto. [121] La ONG ha destacado que la precisión de los sistemas FRT se "exagera rutinariamente y las cifras reales dejan mucho que desear. [121] La implementación de esos sistemas FRT defectuosos conduciría a altas tasas de falsos positivos y falsos negativos en este proceso de reconocimiento".
Según la decisión de la Corte Suprema de la India en el caso Justice KS Puttaswamy vs Union of India (22017 10 SCC 1), cualquier intrusión justificable por parte del Estado en el derecho a la privacidad de las personas, que está protegido como un derecho fundamental en virtud del artículo 21 de la Constitución, debe cumplir ciertos umbrales, a saber: legalidad, necesidad, proporcionalidad y garantías procesales. [122] Según la Internet Freedom Foundation, la propuesta del Sistema Nacional Automatizado de Reconocimiento Facial (AFRS) no cumple ninguno de estos umbrales, citando "ausencia de legalidad", "arbitraje manifiesto" y "ausencia de garantías y rendición de cuentas". [123]
Aunque el proyecto AFRS a nivel nacional todavía está en marcha, los departamentos de policía de varios estados de la India ya están implementando sistemas de tecnología de reconocimiento facial, como: TSCOP + CCTNS en Telangana, [124] Punjab Artificial Intelligence System (PAIS) en Punjab, [125] Trinetra en Uttar Pradesh, [126] Police Artificial Intelligence System en Uttarakhand, [127] AFRS en Delhi, Automated Multimodal Biometric Identification System (AMBIS) en Maharashtra, FaceTagr en Tamil Nadu. La Red y los Sistemas de Seguimiento de Delitos y Criminales (CCTNS), que es un Proyecto de Modo Misión bajo el Plan Nacional de Gobierno Electrónico (NeGP), [128] se considera un sistema que conectaría a las comisarías de policía de toda la India y las ayudaría a "hablar" [129] entre sí. El objetivo del proyecto es digitalizar toda la información relacionada con FIR, incluidos los FIR registrados, así como los casos investigados, las hojas de cargos presentadas y los sospechosos y personas buscadas en todas las comisarías de policía. Esto constituirá una base de datos nacional de delitos y criminales en la India. El CCTNS se está implementando sin una ley de protección de datos vigente. Se propone que el CCTNS se integre con el AFRS, un repositorio de todos los datos faciales relacionados con delitos y criminales que se puede implementar para supuestamente identificar o verificar a una persona a partir de una variedad de entradas que van desde imágenes hasta videos. [130] Esto ha generado preocupaciones sobre la privacidad de las organizaciones de la sociedad civil y los expertos en privacidad. Ambos proyectos han sido censurados como instrumentos de " vigilancia masiva " a manos del estado. [131] En Rajastán, 'RajCop', una aplicación policial, se ha integrado recientemente con un módulo de reconocimiento facial que puede hacer coincidir el rostro de un sospechoso con una base de datos de personas conocidas en tiempo real. La policía de Rajastán está trabajando actualmente para ampliar el alcance de este módulo al hacer que sea obligatorio cargar fotografías de todas las personas arrestadas en la base de datos del CCTNS, lo que "ayudará a desarrollar una rica base de datos de delincuentes conocidos". [132]
La policía de Rajastán ha diseñado y utilizado cascos con cámaras en situaciones de orden público para captar las acciones y actividades policiales de los "malhechores, que luego pueden servir como prueba durante la investigación de tales casos". [132] PAIS (Sistema de Inteligencia Artificial de Punjab), la aplicación emplea aprendizaje profundo, aprendizaje automático y reconocimiento facial para la identificación de delincuentes con el fin de ayudar al personal policial. [132] El estado de Telangana ha instalado 800.000 cámaras de CCTV, [132] y su capital, Hyderabad, se está convirtiendo lentamente en una capital de la vigilancia. [133]
Un falso positivo ocurre cuando la tecnología de reconocimiento facial identifica erróneamente a una persona como alguien que no es, es decir, arroja un resultado positivo incorrecto. A menudo da lugar a discriminación y al fortalecimiento de los prejuicios existentes. Por ejemplo, en 2018, la policía de Delhi informó que su sistema FRT tenía una tasa de precisión del 2%, que se redujo al 1% en 2019. El sistema FRT ni siquiera logró distinguir con precisión entre diferentes sexos. [134]
El gobierno de Delhi, en colaboración con la Organización de Investigación Espacial de la India (ISRO), está desarrollando una nueva tecnología denominada Sistema de Análisis y Predicción de la Cartografía del Crimen (CMAPS). El proyecto tiene por objeto utilizar tecnología espacial para "controlar el crimen y mantener la ley y el orden". [132] El sistema estará conectado a una base de datos que contenga datos de los delincuentes. [132] Se prevé que la tecnología se utilice para recopilar datos en tiempo real en la escena del crimen. [132]
En una respuesta de fecha 25 de noviembre de 2020 a una solicitud de Derecho a la Información presentada por la Internet Freedom Foundation en la que se solicitaba información sobre el sistema de reconocimiento facial que utilizaba la Policía de Delhi (con número de referencia DEPOL/R/E/20/07128), [135] la Oficina del Comisionado Adjunto de Policía y Oficial de Información Pública: Delitos declaró que no pueden proporcionar la información en virtud del artículo 8(d) de la Ley de Derecho a la Información de 2005. [136] Se presentó una solicitud de Derecho a la Información (RTI) con fecha del 30 de julio de 2020 ante la Oficina del Comisionado de la Policía de Calcuta en la que se solicitaba información sobre la tecnología de reconocimiento facial que utilizaba el departamento. [137] La información solicitada fue denegada [138] afirmando que el departamento estaba exento de divulgación en virtud del artículo 24(4) de la Ley de RTI.
En las elecciones presidenciales mexicanas de 2000 , el gobierno mexicano empleó un software de reconocimiento facial para evitar el fraude electoral . Algunas personas se habían registrado para votar con varios nombres diferentes, en un intento de emitir varios votos. Al comparar las nuevas imágenes de los rostros con las que ya figuraban en la base de datos de votantes, las autoridades pudieron reducir los registros duplicados. [139]
En Colombia, los autobuses de transporte público están equipados con un sistema de reconocimiento facial de FaceFirst Inc para identificar a los pasajeros que son buscados por la Policía Nacional de Colombia . FaceFirst Inc también construyó el sistema de reconocimiento facial para el Aeropuerto Internacional de Tocumen en Panamá. El sistema de reconocimiento facial se implementa para identificar a las personas entre los viajeros que son buscados por la Policía Nacional de Panamá o Interpol . [140] El Aeropuerto Internacional de Tocumen opera un sistema de vigilancia en todo el aeropuerto utilizando cientos de cámaras de reconocimiento facial en vivo para identificar a las personas buscadas que pasan por el aeropuerto. El sistema de reconocimiento facial se instaló inicialmente como parte de un contrato de US$11 millones e incluía un grupo de computadoras de sesenta computadoras, una red de cable de fibra óptica para los edificios del aeropuerto, así como la instalación de 150 cámaras de vigilancia en la terminal del aeropuerto y en aproximadamente 30 puertas del aeropuerto . [141]
En la Copa Mundial de la FIFA 2014 en Brasil, la Policía Federal de Brasil utilizó gafas de reconocimiento facial . Los sistemas de reconocimiento facial "fabricados en China" también se implementaron en los Juegos Olímpicos de Verano de 2016 en Río de Janeiro. [140] La empresa Nuctech proporcionó 145 terminales de inspección para el Estadio Maracaná y 55 terminales para el Parque Olímpico de Deodoro . [142]
Las fuerzas policiales de al menos 21 países de la Unión Europea utilizan, o planean utilizar, sistemas de reconocimiento facial, ya sea con fines administrativos o penales. [143]
La policía griega ha firmado un contrato con Intracom-Telecom para el suministro de al menos 1.000 dispositivos equipados con un sistema de reconocimiento facial en tiempo real. La entrega está prevista para antes del verano de 2021. El valor total del contrato supera los 4 millones de euros, pagados en gran parte por el Fondo de Seguridad Interior de la Comisión Europea . [144]
La policía italiana adquirió un sistema de reconocimiento facial en 2017, el Sistema Automatico Riconoscimento Immagini (SARI). En noviembre de 2020, el Ministerio del Interior anunció planes para utilizarlo en tiempo real para identificar a personas sospechosas de solicitar asilo. [145]
Los Países Bajos han implementado tecnología de reconocimiento facial e inteligencia artificial desde 2016. [146] La base de datos de la policía holandesa contiene actualmente más de 2,2 millones de fotografías de 1,3 millones de ciudadanos holandeses, lo que representa aproximadamente el 8% de la población. En los Países Bajos, la policía no utiliza el reconocimiento facial en las cámaras de videovigilancia municipales. [147]
En Sudáfrica, en 2016, la ciudad de Johannesburgo anunció que estaba implementando cámaras CCTV inteligentes con reconocimiento automático de matrículas y reconocimiento facial. [148]
La empresa estadounidense 3VR, ahora Identiv, es un ejemplo de un proveedor que comenzó a ofrecer sistemas y servicios de reconocimiento facial a los minoristas ya en 2007. [149] En 2012, la empresa anunció beneficios como "análisis de espera y de colas para reducir los tiempos de espera de los clientes", "análisis de vigilancia facial para facilitar saludos personalizados a los clientes por parte de los empleados " y la capacidad de "crear programas de fidelización combinando datos de puntos de venta (POS) con reconocimiento facial". [150]
En 2018, el Consejo de Investigación para la Prevención de Pérdidas de la Federación Nacional de Minoristas calificó la tecnología de reconocimiento facial como "una nueva herramienta prometedora" que vale la pena evaluar. [151]
En julio de 2020, la agencia de noticias Reuters informó que durante la década de 2010, la cadena de farmacias Rite Aid había implementado sistemas y componentes de videovigilancia de reconocimiento facial de FaceFirst, DeepCam LLC y otros proveedores en algunas tiendas minoristas de los Estados Unidos. [151] Cathy Langley, vicepresidenta de protección de activos de Rite Aid, utilizó la frase "coincidencia de características" para referirse a los sistemas y dijo que el uso de los sistemas resultó en menos violencia y crimen organizado en las tiendas de la empresa, mientras que el ex vicepresidente de protección de activos Bob Oberosler enfatizó la mejora de la seguridad para el personal y una menor necesidad de participación de las organizaciones policiales . [151] En una declaración de 2020 a Reuters en respuesta al informe, Rite Aid dijo que había dejado de usar el software de reconocimiento facial y había apagado las cámaras. [151]
Según Read Hayes, director del Consejo de Investigación para la Prevención de Pérdidas de la Federación Nacional de Minoristas, el programa de vigilancia de Rite Aid fue el más grande o uno de los más grandes en el comercio minorista. [151] Home Depot , Menards , Walmart y 7-Eleven se encuentran entre otros minoristas estadounidenses que también participan en programas piloto a gran escala o implementaciones de tecnología de reconocimiento facial. [151]
De las tiendas Rite Aid examinadas por Reuters en 2020, aquellas en comunidades donde las personas de color constituían el grupo racial o étnico más grande tenían tres veces más probabilidades de tener la tecnología instalada, [151] lo que genera inquietudes relacionadas con la importante historia de segregación racial y perfilación racial en los Estados Unidos . Rite Aid dijo que la selección de ubicaciones estaba "basada en datos", en función de los historiales de robo de las tiendas individuales, los datos delictivos locales y nacionales y la infraestructura del sitio. [151]
En 2019, el reconocimiento facial se utilizó para prevenir robos en el Star Casino de Sídney y también se implementó en salas de juego de Nueva Zelanda. [152]
En junio de 2022, el grupo de consumidores CHOICE informó que el reconocimiento facial se estaba utilizando en Australia en Kmart, Bunnings y The Good Guys. The Good Guys suspendió posteriormente la tecnología a la espera de una impugnación legal por parte de CHOICE ante la Oficina del Comisionado de Información de Australia, mientras que Bunnings mantuvo la tecnología en uso y Kmart mantuvo su prueba de la tecnología. [153]
En el campeonato de fútbol americano Super Bowl XXXV en enero de 2001, la policía de Tampa Bay, Florida, utilizó el software de reconocimiento facial Viisage para buscar posibles criminales y terroristas que asistieran al evento. Se identificaron potencialmente 19 personas con antecedentes penales menores. [154] [155]
Los sistemas de reconocimiento facial también han sido utilizados por el software de gestión de fotografías para identificar a los sujetos de las fotografías, lo que permite funciones como la búsqueda de imágenes por persona, así como sugerir fotos para compartir con un contacto específico si se detecta su presencia en una foto. [156] [157] En 2008, los sistemas de reconocimiento facial se utilizaban típicamente como control de acceso en sistemas de seguridad . [158]
La celebridad de la música country y popular estadounidense Taylor Swift empleó subrepticiamente tecnología de reconocimiento facial en un concierto en 2018. La cámara estaba incorporada en un quiosco cerca de una taquilla y escaneaba a los asistentes al concierto cuando ingresaban a las instalaciones en busca de acosadores conocidos . [159]
El 18 de agosto de 2019, The Times informó que el Manchester City, propiedad de los Emiratos Árabes Unidos, contrató a una empresa con sede en Texas, Blink Identity, para implementar sistemas de reconocimiento facial en un programa de conductores. El club ha planeado un único carril superrápido para los seguidores en el estadio Etihad . [160] Sin embargo, los grupos de derechos civiles advirtieron al club contra la introducción de esta tecnología, diciendo que correría el riesgo de "normalizar una herramienta de vigilancia masiva". La responsable de políticas y campañas de Liberty , Hannah Couchman, dijo que la medida del Manchester City es alarmante, ya que los fanáticos se verán obligados a compartir información personal muy sensible con una empresa privada, donde podrían ser rastreados y monitoreados en su vida cotidiana. [161]
En 2019, los casinos de Australia y Nueva Zelanda implementaron el reconocimiento facial para prevenir robos, y un representante del Star Casino de Sídney dijo que también brindarían "servicio al cliente", como darle la bienvenida a un cliente a un bar. [152]
En agosto de 2020, en medio de la pandemia de COVID-19 en los Estados Unidos , los estadios de fútbol americano de Nueva York y Los Ángeles anunciaron la instalación de reconocimiento facial para los próximos partidos. El propósito es hacer que el proceso de entrada sea lo menos táctil posible. [162] El Magic Kingdom de Disney , cerca de Orlando, Florida , también anunció una prueba de tecnología de reconocimiento facial para crear una experiencia sin contacto durante la pandemia; la prueba originalmente estaba programada para realizarse entre el 23 de marzo y el 23 de abril de 2021, pero el plazo limitado se había eliminado a fines de abril de 2021. [163][actualizar]
Las empresas de medios han comenzado a utilizar tecnología de reconocimiento facial para agilizar el seguimiento, la organización y el archivo de imágenes y vídeos. [164]
En 2006, se evaluó el rendimiento de los últimos algoritmos de reconocimiento facial en el Face Recognition Grand Challenge (FRGC) . En las pruebas se utilizaron imágenes de rostros de alta resolución, escaneos faciales en 3D e imágenes del iris. Los resultados indicaron que los nuevos algoritmos son 10 veces más precisos que los algoritmos de reconocimiento facial de 2002 y 100 veces más precisos que los de 1995. Algunos de los algoritmos pudieron superar a los participantes humanos en el reconocimiento de rostros y pudieron identificar de forma única a gemelos idénticos. [45] [165]
Una ventaja clave de un sistema de reconocimiento facial es que puede realizar una identificación masiva, ya que no requiere la cooperación del sujeto de prueba para funcionar. Los sistemas diseñados adecuadamente instalados en aeropuertos, multicines y otros lugares públicos pueden identificar a las personas entre la multitud, sin que los transeúntes ni siquiera se den cuenta del sistema. [166] Sin embargo, en comparación con otras técnicas biométricas, el reconocimiento facial puede no ser el más confiable y eficiente. Las medidas de calidad son muy importantes en los sistemas de reconocimiento facial, ya que es posible que haya grandes grados de variación en las imágenes de los rostros. Factores como la iluminación, la expresión, la pose y el ruido durante la captura de rostros pueden afectar el rendimiento de los sistemas de reconocimiento facial. [166] Entre todos los sistemas biométricos, el reconocimiento facial tiene las tasas de aceptación y rechazo falsos más altas, [166] por lo que se han planteado preguntas sobre la efectividad o el sesgo del software de reconocimiento facial en casos de seguridad ferroviaria y aeroportuaria, aplicación de la ley y decisiones de vivienda y empleo. [167] [5]
Ralph Gross, investigador del Instituto de Robótica Carnegie Mellon en 2008, describe un obstáculo relacionado con el ángulo de visión del rostro: "El reconocimiento facial ha mejorado bastante con rostros completamente frontales y con una desviación de 20 grados, pero en cuanto se pasa al perfil, han surgido problemas". [45] Además de las variaciones de pose, las imágenes de rostros de baja resolución también son muy difíciles de reconocer. Este es uno de los principales obstáculos del reconocimiento facial en los sistemas de vigilancia. [168] También se ha sugerido que los ajustes de la cámara pueden favorecer imágenes más nítidas de piel blanca que de otros tonos de piel. [5]
El reconocimiento facial es menos eficaz si las expresiones faciales varían. Una gran sonrisa puede hacer que el sistema sea menos eficaz. Por ejemplo, en Canadá, en 2009, sólo se permitían expresiones faciales neutras en las fotografías de pasaportes. [169]
También existe una inconstancia en los conjuntos de datos utilizados por los investigadores. Los investigadores pueden utilizar desde varios sujetos hasta decenas de sujetos y desde unos pocos cientos de imágenes hasta miles de imágenes. Los conjuntos de datos pueden ser diversos e inclusivos o contener principalmente imágenes de hombres blancos. Es importante que los investigadores pongan a disposición de los demás los conjuntos de datos que utilizan, o que tengan al menos un conjunto de datos estándar o representativo. [170]
Aunque se ha afirmado que algunos sistemas de reconocimiento facial tienen un alto grado de precisión, estos resultados no son universales. La peor tasa de precisión se da en el caso de personas de entre 18 y 30 años, negras y mujeres. [5]
Los críticos de esta tecnología se quejan de que , hasta 2004, el sistema del distrito londinense de Newham[actualizar] no ha reconocido a ningún delincuente, a pesar de que varios delincuentes de la base de datos del sistema viven en el distrito y el sistema lleva funcionando varios años. "Hasta donde la policía sabe, el sistema de reconocimiento facial automático de Newham no ha detectado ni una sola vez a un objetivo vivo". [155] [171] Esta información parece entrar en conflicto con las afirmaciones de que se atribuyó al sistema una reducción del 34% de la delincuencia (de ahí que se haya implantado también en Birmingham). [172]
Un experimento realizado en 2002 por el departamento de policía local de Tampa , Florida, tuvo resultados igualmente decepcionantes. [155] Un sistema en el Aeropuerto Logan de Boston fue cerrado en 2003 después de no lograr ninguna coincidencia durante un período de prueba de dos años. [173]
En 2014, Facebook afirmó que en una prueba estandarizada de reconocimiento facial de dos opciones, su sistema en línea obtuvo una precisión del 97,25 %, en comparación con el parámetro humano del 97,5 %. [174]
A menudo se anuncian sistemas con una precisión cercana al 100%, lo cual es engañoso, ya que los resultados no son universales [5]. Los estudios suelen utilizar muestras más pequeñas y menos diversas de lo que sería necesario para aplicaciones a gran escala. Como el reconocimiento facial no es completamente preciso, crea una lista de posibles coincidencias. Un operador humano debe examinar estas posibles coincidencias y los estudios muestran que los operadores eligen la coincidencia correcta de la lista solo aproximadamente la mitad de las veces. Esto provoca el problema de apuntar al sospechoso equivocado. [93] [175]
Las organizaciones de derechos civiles y los activistas de la privacidad como la Electronic Frontier Foundation , Big Brother Watch y la ACLU expresan su preocupación por el hecho de que la privacidad se esté viendo comprometida por el uso de tecnologías de vigilancia . [176] [86] [177] El reconocimiento facial se puede utilizar no solo para identificar a un individuo, sino también para descubrir otros datos personales asociados con un individuo, como otras fotos que muestran al individuo, publicaciones de blogs, perfiles de redes sociales, comportamiento en Internet y patrones de viaje. [178] Se han planteado preocupaciones sobre quién tendría acceso al conocimiento del paradero de una persona y las personas que la acompañan en un momento dado. [179] Además, las personas tienen una capacidad limitada para evitar o frustrar el seguimiento del reconocimiento facial a menos que oculten sus rostros. Esto cambia fundamentalmente la dinámica de la privacidad del día a día al permitir que cualquier comercializador, agencia gubernamental o extraño al azar recopile en secreto las identidades y la información personal asociada de cualquier individuo capturado por el sistema de reconocimiento facial. [178] Es posible que los consumidores no comprendan o no sean conscientes de para qué se utilizan sus datos, lo que les niega la capacidad de dar su consentimiento sobre cómo se comparte su información personal. [179]
En julio de 2015, la Oficina de Responsabilidad Gubernamental de los Estados Unidos elaboró un Informe para el Miembro de Mayor Rango del Subcomité de Privacidad, Tecnología y Derecho del Comité Judicial del Senado de los Estados Unidos. El informe analizaba los usos comerciales de la tecnología de reconocimiento facial, las cuestiones de privacidad y la legislación federal aplicable. Afirma que anteriormente se habían debatido cuestiones relacionadas con la tecnología de reconocimiento facial y que esto representa la necesidad de actualizar las leyes de privacidad de los Estados Unidos para que la legislación federal se ajuste continuamente al impacto de las tecnologías avanzadas. El informe señalaba que algunas organizaciones de la industria, el gobierno y el sector privado estaban en proceso de desarrollar, o habían desarrollado, "directrices voluntarias de privacidad". Estas directrices variaban entre las partes interesadas , pero su objetivo general era obtener el consentimiento e informar a los ciudadanos sobre el uso previsto de la tecnología de reconocimiento facial. Según el informe, las directrices voluntarias de privacidad ayudaron a contrarrestar las preocupaciones sobre la privacidad que surgen cuando los ciudadanos desconocen cómo se utilizan sus datos personales. [179]
En 2016, la empresa rusa NtechLab provocó un escándalo de privacidad en los medios internacionales cuando lanzó el sistema de reconocimiento facial FindFace con la promesa de que los usuarios rusos podrían tomar fotos de extraños en la calle y vincularlas a un perfil de redes sociales en la plataforma de redes sociales Vkontakte (VK). [180] En diciembre de 2017, Facebook lanzó una nueva función que notifica a un usuario cuando alguien sube una foto que incluye lo que Facebook cree que es su cara, incluso si no está etiquetado. Facebook ha intentado enmarcar la nueva funcionalidad de una manera positiva, en medio de reacciones negativas anteriores. [181] El jefe de privacidad de Facebook, Rob Sherman, se refirió a esta nueva función como una que da a las personas más control sobre sus fotos en línea. "Hemos pensado en esto como una característica realmente empoderadora", dice. "Puede que existan fotos que no conozcas". [182] DeepFace de Facebook se ha convertido en el tema de varias demandas colectivas bajo la Ley de Privacidad de Información Biométrica, con reclamos que alegan que Facebook está recopilando y almacenando datos de reconocimiento facial de sus usuarios sin obtener el consentimiento informado, en violación directa de la Ley de Privacidad de Información Biométrica de 2008 (BIPA). [183] El caso más reciente fue desestimado en enero de 2016 porque el tribunal carecía de jurisdicción. [184] En los EE. UU., las empresas de vigilancia como Clearview AI se basan en la Primera Enmienda de la Constitución de los Estados Unidos para extraer datos de las cuentas de los usuarios en las plataformas de redes sociales para obtener datos que se puedan usar en el desarrollo de sistemas de reconocimiento facial. [185]
En 2019, el Financial Times informó por primera vez que se estaba utilizando un software de reconocimiento facial en el área de King's Cross de Londres. [186] El desarrollo alrededor de la estación principal King's Cross de Londres incluye tiendas, oficinas, la sede de Google en el Reino Unido y parte del St Martin's College. Según la Oficina del Comisionado de Información del Reino Unido : "Escanear los rostros de las personas mientras realizan legalmente sus vidas diarias, para identificarlas, es una amenaza potencial a la privacidad que debería preocuparnos a todos". [187] [188] La Comisionada de Información del Reino Unido, Elizabeth Denham, inició una investigación sobre el uso del sistema de reconocimiento facial de King's Cross, operado por la empresa Argent. En septiembre de 2019, Argent anunció que el software de reconocimiento facial ya no se utilizaría en King's Cross . Argent afirmó que el software se había implementado entre mayo de 2016 y marzo de 2018 en dos cámaras que cubrían una calle peatonal que atravesaba el centro del desarrollo. [189] En octubre de 2019, un informe de la vicealcaldesa de Londres, Sophie Linden, reveló que en un acuerdo secreto la Policía Metropolitana había pasado fotos de siete personas a Argent para usarlas en su sistema de reconocimiento facial King's Cross. [190]
El reconocimiento facial automatizado fue probado por la policía de Gales del Sur en múltiples ocasiones entre 2017 y 2019. El uso de la tecnología fue impugnado en los tribunales por un particular, Edward Bridges, con el apoyo de la organización benéfica Liberty (caso conocido como R (Bridges) v Chief Constable South Wales Police). El caso fue visto en el Tribunal de Apelación y se dictó sentencia en agosto de 2020. [191] El caso argumentó que el uso del reconocimiento facial era una violación de la privacidad sobre la base de que no había un marco legal suficiente o proporcionalidad en el uso del reconocimiento facial y que su uso violaba las Leyes de Protección de Datos de 1998 y 2018. El caso se decidió a favor de Bridges y no se otorgaron daños y perjuicios. El caso se resolvió mediante una declaración de irregularidad. [191] En respuesta al caso, el gobierno británico ha intentado repetidamente aprobar un proyecto de ley que regule el uso del reconocimiento facial en espacios públicos. Los proyectos de ley propuestos han intentado nombrar a un Comisionado con la capacidad de regular el uso del reconocimiento facial por parte de los servicios gubernamentales de manera similar al Comisionado de CCTV . Dicho proyecto de ley aún no ha entrado en vigor [actualizado a septiembre de 2021 [actualizar]]. [125]
En enero de 2023, la fiscal general de Nueva York , Letitia James, solicitó más información sobre el uso de tecnología de reconocimiento facial por parte de Madison Square Garden Entertainment tras los informes de que la firma la utilizó para impedir que los abogados involucrados en litigios contra la empresa ingresaran al Madison Square Garden . Señaló que tal medida podría ir en contra de las leyes federales, estatales y locales de derechos humanos. [192]
En 2018, [actualizar]todavía se debate si la tecnología de reconocimiento facial funciona con menor precisión en personas de color. [193] Un estudio de Joy Buolamwini (MIT Media Lab) y Timnit Gebru (Microsoft Research) descubrió que la tasa de error para el reconocimiento de género de las mujeres de color en tres sistemas comerciales de reconocimiento facial oscilaba entre el 23,8% y el 36%, mientras que para los hombres de piel más clara oscilaba entre el 0,0 y el 1,6%. Las tasas de precisión generales para identificar a los hombres (91,9%) eran más altas que para las mujeres (79,4%), y ninguno de los sistemas se adaptaba a una comprensión no binaria del género. [194] También mostró que los conjuntos de datos utilizados para entrenar modelos comerciales de reconocimiento facial no eran representativos de la población en general y estaban sesgados hacia los hombres de piel más clara. Sin embargo, otro estudio mostró que varios programas comerciales de reconocimiento facial vendidos a las oficinas de aplicación de la ley en todo el país tenían una tasa de no coincidencia falsa más baja para las personas negras que para las personas blancas. [195]
Los expertos temen que los sistemas de reconocimiento facial puedan estar perjudicando a los ciudadanos que la policía afirma que están tratando de proteger. [196] Se considera un biométrico imperfecto, y en un estudio realizado por la investigadora de la Universidad de Georgetown Clare Garvie, concluyó que "no hay consenso en la comunidad científica sobre si proporciona una identificación positiva de alguien". [197] Se cree que con márgenes de error tan grandes en esta tecnología, tanto los defensores legales como las empresas de software de reconocimiento facial dicen que la tecnología solo debería proporcionar una parte del caso, ninguna prueba que pueda llevar al arresto de un individuo. [ 197] La falta de regulaciones que obliguen a las empresas de tecnología de reconocimiento facial a cumplir con los requisitos de pruebas con sesgo racial puede ser un defecto importante en la adopción de su uso en la aplicación de la ley. CyberExtruder, una empresa que se promociona a sí misma entre las fuerzas del orden, dijo que no habían realizado pruebas ni investigaciones sobre el sesgo en su software. CyberExtruder señaló que algunos colores de piel son más difíciles de reconocer para el software con las limitaciones actuales de la tecnología. "Así como las personas con piel muy oscura son difíciles de identificar con un alto grado de significación a través del reconocimiento facial, las personas con piel muy pálida son iguales", dijo Blake Senftner, ingeniero de software senior en CyberExtruder. [197]
El Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST) llevó a cabo pruebas exhaustivas de verificación 1:1 del sistema FRT [198] y de identificación 1:muchos [198] . También probó la diferente precisión de FRT en diferentes grupos demográficos. El estudio independiente concluyó que, en la actualidad, ningún sistema FRT tiene una precisión del 100 % [199] .
En 2010, Perú aprobó la Ley de Protección de Datos Personales, que define la información biométrica que puede utilizarse para identificar a un individuo como datos sensibles. En 2012, Colombia aprobó una Ley de Protección de Datos integral que define los datos biométricos como información sensible. [140] De acuerdo con el Artículo 9(1) del Reglamento General de Protección de Datos (GDPR) de 2016 de la UE, el procesamiento de datos biométricos con el propósito de "identificar de manera única a una persona física" es sensible y los datos de reconocimiento facial procesados de esta manera se convierten en datos personales sensibles. En respuesta a la aprobación del GDPR como ley en los estados miembros de la UE , los investigadores con sede en la UE expresaron su preocupación de que si se les exigiera en virtud del GDPR obtener el consentimiento del individuo para el procesamiento de sus datos de reconocimiento facial, nunca más se podría establecer una base de datos faciales en la escala de MegaFace. [200] En septiembre de 2019, la Autoridad de Protección de Datos de Suecia (APD) emitió su primera sanción financiera por una violación del Reglamento General de Protección de Datos (RGPD) de la UE contra una escuela que estaba utilizando la tecnología para reemplazar el lento pase de lista durante la clase. La APD descubrió que la escuela obtuvo ilegalmente los datos biométricos de sus estudiantes sin completar una evaluación de impacto. Además, la escuela no informó a la APD sobre el plan piloto. Se le impuso una multa de 200.000 coronas suecas (19.000 euros/21.000 dólares). [ cita requerida ]
En los Estados Unidos de América, varios estados han aprobado leyes para proteger la privacidad de los datos biométricos. Algunos ejemplos son la Ley de Privacidad de la Información Biométrica de Illinois (BIPA, por sus siglas en inglés) y la Ley de Privacidad del Consumidor de California (CCPA, por sus siglas en inglés). [201] En marzo de 2020, los residentes de California presentaron una demanda colectiva contra Clearview AI , alegando que la empresa había recopilado ilegalmente datos biométricos en línea y, con la ayuda de la tecnología de reconocimiento facial, había creado una base de datos de datos biométricos que se vendía a empresas y fuerzas policiales. En ese momento, Clearview AI ya enfrentaba dos demandas en virtud de la BIPA [202] y una investigación del Comisionado de Privacidad de Canadá por el cumplimiento de la Ley de Protección de la Información Personal y los Documentos Electrónicos (PIPEDA, por sus siglas en inglés). [203]
En mayo de 2019, San Francisco, California, se convirtió en la primera ciudad importante de los Estados Unidos en prohibir el uso de software de reconocimiento facial para uso de la policía y otras agencias gubernamentales locales. [204] El supervisor de San Francisco, Aaron Peskin , presentó regulaciones que requerirán que las agencias obtengan la aprobación de la Junta de Supervisores de San Francisco para comprar tecnología de vigilancia . [205] Las regulaciones también requieren que las agencias revelen públicamente el uso previsto para la nueva tecnología de vigilancia. [205] En junio de 2019, Somerville , Massachusetts, se convirtió en la primera ciudad de la Costa Este en prohibir el software de vigilancia facial para uso gubernamental, [206] específicamente en investigaciones policiales y vigilancia municipal. [207] En julio de 2019, Oakland, California, prohibió el uso de tecnología de reconocimiento facial por parte de los departamentos de la ciudad. [208]
La Unión Estadounidense por las Libertades Civiles ("ACLU") ha hecho campaña en todo Estados Unidos a favor de la transparencia en la tecnología de vigilancia [207] y ha apoyado la prohibición de San Francisco y Somerville del software de reconocimiento facial. La ACLU trabaja para desafiar el secreto y la vigilancia con esta tecnología. [ cita requerida ] [209]
Durante las protestas por George Floyd , el uso del reconocimiento facial por parte del gobierno municipal fue prohibido en Boston , Massachusetts. [210] A partir del 10 de junio de 2020, [actualizar]el uso municipal ha sido prohibido en: [11]
El Ayuntamiento de West Lafayette, Indiana, aprobó una ordenanza que prohíbe la tecnología de vigilancia mediante reconocimiento facial. [213]
El 27 de octubre de 2020, 22 grupos de derechos humanos pidieron a la Universidad de Miami que prohibiera la tecnología de reconocimiento facial. Esto se produjo después de que los estudiantes acusaran a la escuela de usar el software para identificar a los manifestantes estudiantiles. Sin embargo, la universidad negó las acusaciones. [214]
Una ley de reforma de la policía estatal en Massachusetts entrará en vigor en julio de 2021; una prohibición aprobada por la legislatura fue rechazada por el gobernador Charlie Baker . [215] En cambio, la ley requiere una orden judicial, limita el personal que puede realizar la búsqueda, registra datos sobre cómo se utiliza la tecnología y crea una comisión para hacer recomendaciones sobre futuras regulaciones. [216]
Los informes de 2024 revelaron que algunos departamentos de policía, incluido el Departamento de Policía de San Francisco , habían eludido las prohibiciones sobre la tecnología de reconocimiento facial que se habían promulgado en sus respectivas ciudades. [217]
En enero de 2020, la Unión Europea sugirió, pero luego descartó rápidamente, una propuesta de moratoria sobre el reconocimiento facial en espacios públicos. [218] [219]
En octubre de 2020 se lanzó la coalición europea Reclaim Your Face , que pide la prohibición del reconocimiento facial y lanzó una Iniciativa Ciudadana Europea en febrero de 2021. Más de 60 organizaciones piden a la Comisión Europea que regule estrictamente el uso de tecnologías de vigilancia biométrica . [220]
En los siglos XVIII y XIX, la creencia de que las expresiones faciales revelaban el valor moral o el verdadero estado interior de un ser humano estaba muy extendida y la fisonomía era una ciencia respetada en el mundo occidental. Desde principios del siglo XIX en adelante, la fotografía se utilizó en el análisis fisionómico de los rasgos faciales y la expresión facial para detectar la locura y la demencia . [221] En las décadas de 1960 y 1970, el estudio de las emociones humanas y sus expresiones fue reinventado por los psicólogos , que intentaron definir un rango normal de respuestas emocionales a los eventos. [222] La investigación sobre el reconocimiento automatizado de emociones se ha centrado desde la década de 1970 en las expresiones faciales y el habla , que se consideran las dos formas más importantes en las que los humanos comunican emociones a otros humanos. En la década de 1970 se estableció la categorización del Sistema de codificación de acciones faciales (FACS) para la expresión física de las emociones. [223] Su desarrollador Paul Ekman sostiene que hay seis emociones que son universales para todos los seres humanos y que pueden codificarse en expresiones faciales. [224] La investigación sobre el reconocimiento automático de expresiones específicas de emociones se ha centrado en las últimas décadas en imágenes de vista frontal de rostros humanos. [225]
En 2016, los algoritmos de reconocimiento de emociones de rasgos faciales se encontraban entre las nuevas tecnologías, junto con CCTV de alta definición , reconocimiento facial 3D de alta resolución y reconocimiento de iris , que encontraron su camino fuera de los laboratorios de investigación universitarios. [ cita requerida ] En 2016, Facebook adquirió FacioMetrics, una empresa derivada de reconocimiento de emociones de rasgos faciales de la Universidad Carnegie Mellon . En el mismo año, Apple Inc. adquirió la empresa emergente de reconocimiento de emociones de rasgos faciales Emotient. [226] A fines de 2016, los proveedores comerciales de sistemas de reconocimiento facial ofrecieron integrar e implementar algoritmos de reconocimiento de emociones para rasgos faciales. [ cita requerida ] El spin-off del Media Lab del MIT , Affectiva [227] a fines de 2019 ofreció un producto de detección de emociones de expresión facial que puede reconocer emociones en humanos mientras conducen . [226]
El desarrollo de tecnología anti-reconocimiento facial es en realidad una carrera armamentista entre los investigadores de la privacidad y las empresas de big data. Las empresas de big data utilizan cada vez más la tecnología de IA convolucional para crear modelos de reconocimiento facial cada vez más avanzados. Las soluciones para bloquear el reconocimiento facial pueden no funcionar en software más nuevo o en diferentes tipos de modelos de reconocimiento facial. Un ejemplo popular citado de bloqueo del reconocimiento facial es el sistema de maquillaje y corte de pelo CVDazzle , pero los creadores señalan en su sitio web que ha estado obsoleto durante bastante tiempo ya que fue diseñado para combatir un algoritmo de reconocimiento facial particular y puede que no funcione. [228] Otro ejemplo es la aparición del reconocimiento facial que puede identificar a las personas que usan mascarillas y gafas de sol, especialmente después de la pandemia de COVID-19. [229]
Dado que las empresas de big data tienen mucho más financiamiento que los investigadores en materia de privacidad, es muy difícil que los sistemas anti-reconocimiento facial sigan el ritmo. Tampoco hay garantía de que las técnicas de ofuscación que se usaron para las imágenes tomadas en el pasado y almacenadas, como las máscaras o la ofuscación por software, protejan a los usuarios del análisis de reconocimiento facial de esas imágenes por parte de tecnologías futuras. [230]
En enero de 2013, investigadores japoneses del Instituto Nacional de Informática crearon unas gafas con "visera de privacidad" que utilizan luz casi infrarroja para hacer que el rostro que se encuentra debajo sea irreconocible para el software de reconocimiento facial que utiliza infrarrojos. [231] La última versión utiliza un marco de titanio, material que refleja la luz y una máscara que utiliza ángulos y patrones para alterar la tecnología de reconocimiento facial mediante la absorción y el rebote de fuentes de luz. [232] [233] [234] [235] Sin embargo, estos métodos se utilizan para evitar el reconocimiento facial por infrarrojos y no funcionarían en el reconocimiento facial de imágenes simples mediante IA. Algunos proyectos utilizan el aprendizaje automático adversario para crear nuevos patrones impresos que confunden al software de reconocimiento facial existente. [236]
Un método que puede funcionar para protegerse de los sistemas de reconocimiento facial son cortes de pelo específicos y patrones de maquillaje que evitan que los algoritmos utilizados detecten una cara, conocidos como deslumbramiento de visión por computadora . [228] Por cierto, los estilos de maquillaje populares entre los Juggalos también pueden proteger contra el reconocimiento facial. [237]
Las mascarillas faciales que se usan para protegerse de virus contagiosos pueden reducir la precisión de los sistemas de reconocimiento facial. Un estudio del NIST de 2020 probó sistemas populares de comparación uno a uno y encontró una tasa de falla de entre el cinco y el cincuenta por ciento en personas con mascarillas. The Verge especuló que la tasa de precisión de los sistemas de vigilancia masiva, que no se incluyeron en el estudio, sería incluso menos precisa que la precisión de los sistemas de comparación uno a uno. [238] El reconocimiento facial de Apple Pay puede funcionar a través de muchas barreras, incluido el maquillaje pesado, las barbas espesas e incluso las gafas de sol, pero falla con las mascarillas. [239] Sin embargo, el reconocimiento facial de rostros enmascarados es cada vez más confiable.
Otra solución es la aplicación de la ofuscación a las imágenes que pueden engañar a los sistemas de reconocimiento facial sin dejar de parecer normales para un usuario humano. Estas podrían usarse cuando las imágenes se publican en línea o en las redes sociales. Sin embargo, como es difícil eliminar las imágenes una vez que están en Internet, la ofuscación de estas imágenes puede ser derrotada y el rostro del usuario identificado por futuros avances en la tecnología. Dos ejemplos de esta técnica, desarrollada en 2020, son la aplicación de cámara 'Camera Adversaria' de la ANU y el algoritmo de software de enmascaramiento de imágenes Fawkes de la Universidad de Chicago , que aplica la ofuscación a fotos ya tomadas. [230] Sin embargo, en 2021, el algoritmo de ofuscación de Fawkes ya había sido atacado específicamente por Microsoft Azure, que cambió su algoritmo para reducir la efectividad de Fawkes. [240]
Entrevistador: Ahora bien, ¿puedo comprar algo así? ¿Es esto... realmente restringen a los clientes para esto? Tim Ross: Hoy en día, lo compran principalmente los bancos, los minoristas y el gobierno y se vende a través de una variedad de canales de seguridad.
La plataforma de inteligencia de video (VIP) de 3VR transforma el servicio al cliente al permitir a las empresas: • Optimizar las decisiones de contratación de personal, aumentar las tasas de conversión de ventas y disminuir los tiempos de espera de los clientes al brindar una claridad extraordinaria al análisis de los patrones de tráfico • Alinear las decisiones de contratación de personal con la actividad real de los clientes, utilizando análisis de permanencia y cola para disminuir los tiempos de espera de los clientes • Aumentar la competitividad mediante el uso del análisis de vigilancia facial de 3VR para facilitar saludos personalizados a los clientes por parte de los empleados • Crear programas de fidelización combinando datos de puntos de venta (POS) con reconocimiento facial
Mediante el uso del software Viisage, la policía comparó los rostros de 19 personas con fotografías de personas arrestadas en el pasado por hurto menor, fraude y otros cargos. No fueron acusados de ningún delito cometido en un día de juego. ESTO ES UNA FARSA