stringtranslate.com

Reconocimiento de firma

Ejemplo de forma de firma.
Ejemplo de información dinámica de una firma. Observando la información de presión se puede observar que el usuario ha levantado el bolígrafo 3 veces en medio de la firma (zonas con presión igual a cero).

El reconocimiento de firmas es un ejemplo de biometría conductual que identifica a una persona en función de su escritura. Se puede operar de dos maneras diferentes:

Estático: En este modo, los usuarios escriben su firma en papel y, una vez completada la escritura, se digitaliza a través de un escáner óptico o una cámara para convertir la imagen de la firma en bits. [1] A continuación, el sistema biométrico reconoce la firma analizando su forma. Este grupo también se conoce como "fuera de línea". [2]

Dinámico: En esta modalidad el usuario escribe su firma en una tableta digitalizadora , la cual adquiere la firma en tiempo real. Otra posibilidad es la adquisición mediante PDA accionados por lápiz óptico. Algunos sistemas también funcionan en teléfonos inteligentes o tabletas con pantalla capacitiva, donde los usuarios pueden firmar con el dedo o con un lápiz adecuado. El reconocimiento dinámico también se conoce como "en línea". La información dinámica generalmente consta de la siguiente información: [2]

Lo último en reconocimiento de firmas se puede encontrar en el último gran concurso internacional. [3]

Las técnicas de reconocimiento de patrones más populares aplicadas al reconocimiento de firmas son la deformación dinámica del tiempo , los modelos ocultos de Markov y la cuantificación vectorial . También existen combinaciones de diferentes técnicas. [4]

Técnicas relacionadas

Recientemente, también se ha propuesto un método biométrico escrito a mano. [5] En este caso, el usuario es reconocido analizando su texto escrito a mano (ver también Reconocimiento biométrico escrito a mano ).

Bases de datos

Existen varias bases de datos públicas, siendo las más populares SVC, [6] y MCYT. [7]

Referencias

  1. ^ Ismail, MA; Gad, Samia (octubre de 2000). "Reconocimiento y verificación de firmas árabes fuera de línea". Reconocimiento de patrones . 33 (10): 1727-1740. Código Bib : 2000PatRe..33.1727I. doi :10.1016/s0031-3203(99)00047-3. ISSN  0031-3203.
  2. ^ ab "Explicación: Reconocimiento de firmas | Actualización biométrica". www.biometricupdate.com . 2016-01-11 . Consultado el 3 de abril de 2021 .
  3. ^ Houmani, Nesmaa; A. Mayoue; S. García-Salicetti; B. Dorizzi; MI Khalil; M. Mostafa; H. Abbas; ZT Kardkovács; D. Muramatsu; B. Yanikoglu; A. Holmátov; M. Martínez-Díaz; J. Férrez; J. Ortega-García; J. Roure Alcobé; J. Fábregas; M. Faúndez-Zanuy; JM Pascual-Gaspar; V. Cardeñoso Payo; C. Vivaracho-Pascual (marzo de 2012). "Campaña de evaluación de firmas BioSecure (BSEC'2009): Evaluación de algoritmos de firma online en función de la calidad de las firmas". Reconocimiento de patrones . 45 (3): 993–1003. Código Bib : 2012PatRe..45..993H. doi :10.1016/j.patcog.2011.08.008. S2CID  17863249.
  4. ^ Faúndez-Zanuy, Marcos (2007). "Reconocimiento de firma online basado en VQ-DTW". Reconocimiento de patrones . 40 (3): 981–992. Código Bib : 2007PatRe..40..981F. doi :10.1016/j.patcog.2006.06.007.
  5. ^ Chapran, J. (2006). "Identificación biométrica del escritor: análisis y clasificación de características". Revista internacional de reconocimiento de patrones e inteligencia artificial . 20 (4): 483–503. doi :10.1142/s0218001406004831.
  6. ^ Yeung, DH; Xiong, Y.; George, S.; Kashi, R.; Matsumoto, T.; Rigoll, G. (2004). "SVC2004: Primer Concurso Internacional de Verificación de Firmas". Autenticación biométrica . Apuntes de conferencias sobre informática. vol. 3072, págs. 16-22. doi :10.1007/978-3-540-25948-0_3. ISBN 978-3-540-22146-3.
  7. ^ Ortega-García, Javier; J. Férrez; D. Simón; J. González; M. Faúndez-Zanuy; V. Espinosa; A. Satue; I. Hernáez; J.-J. Igarza; C. Vivaracho; D.Escudero; P.-I. Moro (2003). "Corpus de referencia MCYT: una base de datos biométrica bimodal". Actas de la IEE: procesamiento de visión, imágenes y señales . 150 (6): 395–401. doi :10.1049/ip-vis:20031078.