DeepFace es un sistema de reconocimiento facial de aprendizaje profundo creado por un grupo de investigación de Facebook . Identifica rostros humanos en imágenes digitales. El programa emplea una red neuronal de nueve capas con más de 120 millones de pesos de conexión y fue entrenado en cuatro millones de imágenes cargadas por usuarios de Facebook. [1] [2] El equipo de investigación de Facebook ha declarado que el método DeepFace alcanza una precisión del 97,35% ± 0,25% en el conjunto de datos Labeled Faces in the Wild (LFW), donde los seres humanos tienen un 97,53%. [3] Esto significa que DeepFace a veces tiene más éxito que los seres humanos. Como resultado de las crecientes preocupaciones sociales, Meta anunció [4] que planea cerrar el sistema de reconocimiento facial de Facebook, eliminando los datos de escaneo facial de más de mil millones de usuarios. [5] Este cambio representará uno de los cambios más grandes en el uso del reconocimiento facial en la historia de la tecnología. Facebook planeó eliminar para diciembre de 2021 más de mil millones de plantillas de reconocimiento facial, que son escaneos digitales de rasgos faciales. Sin embargo, no tiene previsto eliminar DeepFace, el software que alimenta el sistema de reconocimiento facial. La compañía tampoco ha descartado incorporar tecnología de reconocimiento facial en futuros productos, según un portavoz de Meta. [5]
DeepFace fue creado por un grupo de científicos del equipo de investigación de inteligencia artificial de Facebook . El equipo incluye a Yainiv Taigman y al científico investigador de Facebook Ming Yang. También se les unió Lior Wolf, un miembro de la facultad de la Universidad de Tel Aviv . Yaniv Taigman llegó a Facebook cuando Facebook adquirió Face.com en 2012.
Facebook comenzó a ofrecer DeepFace a sus usuarios a principios de 2015 y ha ido ampliando continuamente su uso y su software. [6] Según el director de investigación de inteligencia artificial de Facebook , DeepFace no pretende invadir la privacidad individual. En cambio, DeepFace alerta a las personas cuando su rostro aparece en alguna foto publicada en Facebook. Cuando reciben esta notificación, tienen la opción de eliminar su rostro de la foto. [6]
Cuando se implementó por primera vez la tecnología DeepFace, los usuarios tenían la opción de desactivar DeepFace. Sin embargo, no se les notificó que estaba activada. [7] Debido a esto, DeepFace no se lanzó en la Unión Europea . Una ley de privacidad de datos en la UE argumentó que el reconocimiento facial de Facebook no cumplía con las leyes de protección de datos de la UE. Debido a que los usuarios no consienten todos los usos de sus datos biométricos, no cumple. [8]
Los sistemas DeepFace pueden identificar rostros con una precisión del 97%, casi la misma precisión que un humano en la misma posición. El reconocimiento facial de Facebook es más eficaz que la tecnología del FBI , que tiene una precisión del 85%. [9] La tecnología de Google , FaceNet , es más exitosa que DeepFace utilizando los mismos conjuntos de datos. FaceNet estableció un récord de precisión, 99,63%. FaceNet de Google incorpora datos de Google Photos . [10]
Facebook utiliza plantillas de reconocimiento facial individuales para encontrar fotos en las que aparece una persona para que pueda revisar, interactuar o compartir el contenido. DeepFace protege a las personas de la suplantación de identidad o el robo de identidad . Tomemos, por ejemplo, una instancia en la que una persona usó la foto de perfil de alguien como si fuera suya. A través de DeepFace, Facebook puede identificar y alertar a la persona cuya información está siendo mal utilizada. [11] Para garantizar que las personas tengan control sobre su reconocimiento facial, Facebook no comparte plantillas faciales. Además, Facebook eliminará imágenes de las plantillas de reconocimiento facial si alguien ha eliminado su cuenta o se ha quitado la etiqueta de una foto. Las personas también tienen la capacidad de desactivar su reconocimiento facial en Facebook. Si la función está desactivada, Facebook dejará de reconocer facialmente a esa persona.
Tras el lanzamiento de DeepFace en 2015, sus usos se han mantenido bastante estancados. Debido a que más personas han subido imágenes a Facebook, el algoritmo se ha vuelto más preciso. DeepFace de Facebook es el conjunto de datos de reconocimiento facial más grande que existe actualmente. Debido a esto, algunas personas argumentan que la base de datos de identificación facial de Facebook podría distribuirse a agencias gubernamentales. [12] Sin embargo, estos usos estarían prohibidos por la mayoría de las leyes de privacidad de datos. En respuesta a las preocupaciones sobre la privacidad, Facebook eliminó su función de reconocimiento facial automático, lo que permitía a las personas optar por etiquetar a través de DeepFace. Este cambio se implementó en 2019.
El sistema DeepFace consta de cuatro módulos: alineación 2D, alineación 3D, frontalización y red neuronal. La imagen de un rostro se pasa a través de ellos en secuencia, lo que da como resultado un vector de características de 4096 dimensiones que representa el rostro. El vector de características se puede procesar posteriormente para muchas tareas diferentes. Por ejemplo, para identificar el rostro, se puede comparar con una lista de vectores de características de rostros conocidos e identificar el rostro con el vector de características más similar.
DeepFace utiliza detectores de puntos fiduciales basados en bases de datos existentes para dirigir la alineación de los rostros. La alineación facial comienza con una alineación 2D y luego continúa con una alineación 3D y frontalización. Es decir, el proceso de DeepFace consta de dos pasos. Primero, corrige los ángulos de una imagen para que el rostro en la foto mire hacia adelante. Para lograr esto, utiliza un modelo 3D de un rostro. [13]
El módulo de alineación 2D detecta 6 puntos fiduciales en el rostro detectado: el centro de los ojos, la punta de la nariz y la ubicación de la boca. Estos puntos se trasladan a una imagen deformada para ayudar a detectar el rostro. Sin embargo, la transformación 2D no compensa las rotaciones que están fuera de lugar.
Para alinear los rostros, DeepFace utiliza un modelo 3D genérico en el que las imágenes 2D se recortan como versiones 3D. La imagen 3D tiene 67 puntos fiduciales. Una vez deformada la imagen, se colocan manualmente 67 puntos de anclaje en la imagen para que coincidan con los 67 puntos fiduciales. A continuación, se instala una cámara 3D a 2D que minimiza las pérdidas. Dado que los puntos 3D detectados en el contorno del rostro pueden ser inexactos, este paso es importante.
Como las proyecciones en perspectiva completa no están modeladas, la cámara adaptada es solo una aproximación del rostro real del individuo. Para reducir los errores, DeepFace tiene como objetivo deformar las imágenes 2D con distorsiones más pequeñas. Además, la cámara P es capaz de reemplazar partes de la imagen y combinarlas con sus contrapartes simétricas.
La red neuronal es una secuencia de capas, organizadas de la siguiente manera: capa convolucional - agrupación máxima - capa convolucional - 3 capas conectadas localmente - capa completamente conectada.
La entrada es una imagen RGB de la cara, escalada a resolución , y la salida es un vector real de dimensión 4096, que es el vector de características de la imagen de la cara.
En el artículo de 2014, [13] se agrega una capa completamente conectada adicional al final para clasificar la imagen del rostro en una de las 4030 posibles personas que la red había visto durante el tiempo de entrenamiento.
El investigador de inteligencia artificial Ben Goertzel dijo que Facebook había "resuelto de manera bastante convincente el reconocimiento facial" con el proyecto, pero dijo que sería incorrecto concluir que el aprendizaje profundo es la solución completa para la IA.
Neeraj Kumar , investigador de la Universidad de Washington, afirmó que DeepFace de Facebook demuestra que grandes conjuntos de datos externos pueden dar como resultado un modelo de "mayor capacidad". Debido al amplio acceso de Facebook a imágenes de personas, su software de reconocimiento facial puede funcionar mejor que otro software con conjuntos de datos mucho más pequeños. [14] [15]
Un artículo del Huffington Post calificó la tecnología de "espeluznante", citando preocupaciones sobre la privacidad de los datos , y señaló que algunos gobiernos europeos ya habían requerido a Facebook que eliminara los datos de reconocimiento facial. [16] Según Broadcasting & Cable , tanto Facebook como Google habían sido invitados por el Centro para la Democracia Digital a asistir a una "reunión de partes interesadas" de la Administración Nacional de Telecomunicaciones e Información de 2014 para ayudar a desarrollar una Carta de Derechos de Privacidad del Consumidor , pero ambos declinaron. Broadcasting & Cable también señaló que Facebook no había publicado ningún comunicado de prensa sobre DeepFace, aunque su artículo de investigación se había publicado a principios de mes. Slate dijo que Facebook no estaba publicitando DeepFace porque teme otra ronda de titulares que denuncien lo espeluznante de DeepFace.
Muchas personas temen a la tecnología de reconocimiento facial. [17] [18] La precisión casi perfecta de la tecnología permite a las empresas de redes sociales crear perfiles digitales de millones de estadounidenses. [19] Sin embargo, el miedo de una persona al reconocimiento facial y otras preocupaciones sobre la privacidad no se corresponden con una disminución en el uso de las redes sociales. En cambio, las actitudes hacia la privacidad y la configuración de privacidad no tienen un gran impacto en la intención de una persona de usar las aplicaciones de Facebook. [20] [21] [22] Debido a que Facebook es un sitio de redes sociales, los temores individuales sobre la privacidad se ven superados por el deseo de participar en las redes sociales. [23]
Los usuarios de Facebook presentaron una demanda colectiva contra Facebook en virtud de la Ley de Privacidad de Información Biométrica de Illinois (BIPA). [24] Illinois tiene la legislación de privacidad biométrica más completa, que regula la recopilación de información biométrica por parte de entidades comerciales. [25] La BIPA de Illinois exige que una corporación que obtenga la información biométrica de una persona obtenga una autorización por escrito, le notifique que se está recopilando su información y establezca la duración de la recopilación de la información. La demanda presentada contra DeepFace alega que la recopilación de información de identificación facial por parte de Facebook con el propósito de la herramienta de sugerencia de etiquetas viola la BIPA. [26] Debido a que Facebook no notifica ni da consentimiento a las personas cuando usan esta herramienta, los usuarios de Facebook argumentan que viola la BIPA. [27] El Noveno Circuito rechazó la moción de Facebook para desestimar el caso y, en última instancia, certificó el caso. Facebook intentó apelar la certificación de la decisión del Noveno Circuito, que finalmente se concedió. Facebook afirma que el caso no debería haberse verificado porque los demandantes no han alegado ningún daño más allá de la violación de la BIPA por parte de Facebook. Facebook eliminó su función de etiquetado automático de reconocimiento facial en 2019, en respuesta a las inquietudes planteadas en la demanda. [28] Facebook propuso un acuerdo de 550 millones de dólares para el caso, que fue rechazado. Cuando Facebook aumentó el acuerdo a 650 millones de dólares, el tribunal lo aceptó. A principios de marzo de 2021 se ordenó a Facebook que pagara su acuerdo de 650 millones de dólares. 1,6 millones de residentes de Illinois recibirán al menos 345 dólares. [29]
En julio de 2020, Facebook anunció que está formando equipos que analizarán el racismo en sus algoritmos. [30] Los equipos de Facebook trabajarán con el equipo de inteligencia artificial responsable de Facebook para estudiar el sesgo en sus sistemas. La implementación de estos programas es reciente y aún no está claro qué reformas se realizarán. [31]
En 2019, un desafío de Facebook se volvió viral en el que se pedía a los usuarios que publicaran una foto de hace 10 años y otra de 2019. El desafío se denominó "desafío de los 10 años". Más de 5 millones de personas participaron en el desafío, incluidas muchas celebridades. Surgió la preocupación de que el desafío de los 10 años de Facebook estuviera diseñado para entrenar la base de datos de reconocimiento facial de Facebook. Kate O'Neill , escritora de Wired , escribió un artículo de opinión que se hizo eco de esta posibilidad. [32] Facebook negó haber desempeñado un papel en la generación del desafío. [33] Sin embargo, las personas han argumentado que las preocupaciones que subrayan las teorías en torno al desafío de los 10 años se reflejan en preocupaciones más amplias sobre Facebook y el derecho a la privacidad. [34]
Los algoritmos de reconocimiento facial no tienen un éxito universal. [35] Si bien los algoritmos son capaces de clasificar rostros con una precisión de más del 90 % en algunos casos, la precisión es menor cuando los algoritmos se aplican a mujeres, personas negras y jóvenes. [36] Los sistemas identifican erróneamente rostros negros y asiáticos entre 10 y 100 veces más que los rostros blancos. [37] Debido a que los algoritmos se entrenan principalmente con hombres blancos, los sistemas como DeepFace tienen más dificultades para identificarlos. [38] Se proyecta que una vez que las bases de datos de reconocimiento facial estén entrenadas para identificar a personas de color (exponiéndolas a rostros más diversos), tendrán más éxito en la identificación. [39]
{{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite web}}
: |first=
tiene nombre genérico ( ayuda ){{cite web}}
: Falta o está vacío |title=
( ayuda )