La tokenización , cuando se aplica a la seguridad de los datos, es el proceso de sustituir un elemento de datos sensibles por un equivalente no sensible, denominado token , que no tiene ningún significado o valor intrínseco o explotable. El token es una referencia (es decir, un identificador) que se asigna de nuevo a los datos sensibles a través de un sistema de tokenización. La asignación de los datos originales a un token utiliza métodos que hacen que los tokens no sean factibles de revertir en ausencia del sistema de tokenización, por ejemplo, utilizando tokens creados a partir de números aleatorios . [3] Se utiliza una función criptográfica unidireccional para convertir los datos originales en tokens, lo que dificulta la recreación de los datos originales sin obtener acceso a los recursos del sistema de tokenización. [4] Para prestar dichos servicios, el sistema mantiene una base de datos de bóveda de tokens que están conectados a los datos sensibles correspondientes. Proteger la bóveda del sistema es vital para el sistema, y se deben poner en marcha procesos mejorados para ofrecer integridad de la base de datos y seguridad física. [5]
El sistema de tokenización debe protegerse y validarse utilizando las mejores prácticas de seguridad [6] aplicables a la protección de datos confidenciales, almacenamiento seguro, auditoría, autenticación y autorización. El sistema de tokenización proporciona a las aplicaciones de procesamiento de datos la autoridad y las interfaces para solicitar tokens o destokenizar los datos confidenciales.
Los beneficios de seguridad y reducción de riesgos de la tokenización requieren que el sistema de tokenización esté lógicamente aislado y segmentado de los sistemas y aplicaciones de procesamiento de datos que anteriormente procesaban o almacenaban datos confidenciales reemplazados por tokens. Solo el sistema de tokenización puede tokenizar datos para crear tokens, o destokenizarlos para canjear datos confidenciales bajo estrictos controles de seguridad. Se debe demostrar que el método de generación de tokens tiene la propiedad de que no existen medios factibles a través de ataques directos, criptoanálisis , análisis de canal lateral, exposición de tablas de mapeo de tokens o técnicas de fuerza bruta para revertir los tokens a datos activos.
El reemplazo de datos en vivo por tokens en los sistemas tiene como objetivo minimizar la exposición de datos confidenciales a esas aplicaciones, tiendas, personas y procesos, reduciendo el riesgo de vulneración o exposición accidental y acceso no autorizado a datos confidenciales. Las aplicaciones pueden operar utilizando tokens en lugar de datos en vivo, con la excepción de una pequeña cantidad de aplicaciones confiables a las que se les permite explícitamente destokenizar cuando sea estrictamente necesario para un propósito comercial aprobado. Los sistemas de tokenización pueden operar internamente dentro de un segmento aislado seguro del centro de datos o como un servicio de un proveedor de servicios seguro.
La tokenización se puede utilizar para proteger datos confidenciales que incluyen, por ejemplo, cuentas bancarias , estados financieros , registros médicos , antecedentes penales , licencias de conducir , solicitudes de préstamos , transacciones bursátiles , registros de votantes y otros tipos de información de identificación personal (PII). La tokenización se utiliza a menudo en el procesamiento de tarjetas de crédito. El PCI Council define la tokenización como "un proceso mediante el cual el número de cuenta principal (PAN) se reemplaza con un valor sustituto llamado token. Un PAN puede vincularse a un número de referencia a través del proceso de tokenización. En este caso, el comerciante simplemente tiene que conservar el token y un tercero confiable controla la relación y posee el PAN. El token puede crearse independientemente del PAN, o el PAN puede usarse como parte de la entrada de datos a la técnica de tokenización. La comunicación entre el comerciante y el proveedor externo debe ser segura para evitar que un atacante la intercepte para obtener el PAN y el token. [7]
La destokenización [8] es el proceso inverso de canjear un token por su valor PAN asociado. La seguridad de un token individual depende predominantemente de la imposibilidad de determinar el PAN original conociendo únicamente el valor sustituto". [9] La elección de la tokenización como alternativa a otras técnicas como el cifrado dependerá de los distintos requisitos regulatorios, la interpretación y la aceptación por parte de las respectivas entidades de auditoría o evaluación. Esto se suma a cualquier restricción técnica, arquitectónica u operativa que la tokenización imponga en el uso práctico.
El concepto de tokenización, tal como lo ha adoptado la industria hoy en día, ha existido desde que surgieron los primeros sistemas monetarios hace siglos como un medio para reducir el riesgo en el manejo de instrumentos financieros de alto valor al reemplazarlos con equivalentes sustitutos. [10] [11] [12] En el mundo físico, los tokens de monedas tienen una larga historia de uso reemplazando el instrumento financiero de monedas y billetes acuñados . En la historia más reciente, las fichas del metro y las fichas de casino encontraron adopción para sus respectivos sistemas para reemplazar la moneda física y los riesgos de manejo de efectivo como el robo. Exonumia y scrip son términos sinónimos de tales tokens.
En el mundo digital, se han utilizado técnicas de sustitución similares desde la década de 1970 como un medio para aislar elementos de datos reales de la exposición a otros sistemas de datos. En las bases de datos, por ejemplo, se han utilizado valores de clave sustitutivos desde 1976 para aislar datos asociados con los mecanismos internos de las bases de datos y sus equivalentes externos para una variedad de usos en el procesamiento de datos. [13] [14] Más recientemente, estos conceptos se han ampliado para considerar esta táctica de aislamiento para proporcionar un mecanismo de seguridad para los fines de la protección de datos.
En la industria de las tarjetas de pago , la tokenización es un medio para proteger los datos confidenciales de los titulares de las tarjetas a fin de cumplir con los estándares de la industria y las regulaciones gubernamentales. [15]
Shift4 Corporation [16] aplicó la tokenización a los datos de tarjetas de pago y la hizo pública durante una Cumbre de Seguridad de la industria en Las Vegas , Nevada , en 2005. [17] La tecnología está destinada a evitar el robo de la información de tarjetas de crédito almacenada. Shift4 define la tokenización como: “El concepto de utilizar una pieza de datos no descifrable para representar, por referencia, datos confidenciales o secretos. En el contexto de la industria de tarjetas de pago (PCI), los tokens se utilizan para hacer referencia a los datos del titular de la tarjeta que se gestionan en un sistema de tokenización, una aplicación o una instalación segura externa”. [18]
Para proteger los datos durante todo su ciclo de vida, la tokenización suele combinarse con el cifrado de extremo a extremo para proteger los datos en tránsito hacia el sistema o servicio de tokenización, con un token que reemplaza los datos originales al regresar. Por ejemplo, para evitar los riesgos de que el malware robe datos de sistemas de baja confianza, como los sistemas de punto de venta (POS), como en la violación de seguridad de Target en 2013, el cifrado de los datos del titular de la tarjeta debe realizarse antes de que los datos de la tarjeta ingresen al POS y no después. El cifrado se realiza dentro de los confines de un dispositivo de lectura de tarjetas validado y reforzado en seguridad y los datos permanecen cifrados hasta que los recibe el host de procesamiento, un enfoque iniciado por Heartland Payment Systems [19] como un medio para proteger los datos de pago de amenazas avanzadas, ahora ampliamente adoptado por las empresas de procesamiento de pagos de la industria y las empresas de tecnología. [20] El PCI Council también ha especificado el cifrado de extremo a extremo (cifrado punto a punto certificado, P2PE) para varias implementaciones de servicios en varios documentos de cifrado punto a punto del PCI Council.
El proceso de tokenización consta de los siguientes pasos:
Los sistemas de tokenización comparten varios componentes según estándares establecidos.
La tokenización y el cifrado “clásico” protegen eficazmente los datos si se implementan correctamente, y un sistema de seguridad informática puede utilizar ambos. Si bien son similares en ciertos aspectos, la tokenización y el cifrado clásico difieren en algunos aspectos clave. Ambos son métodos criptográficos de seguridad de datos y, en esencia, tienen la misma función; sin embargo, lo hacen con procesos diferentes y tienen diferentes efectos sobre los datos que protegen.
La tokenización es un enfoque no matemático que reemplaza datos confidenciales por sustitutos no confidenciales sin alterar el tipo o la longitud de los datos. Esta es una distinción importante con respecto al cifrado, ya que los cambios en la longitud y el tipo de datos pueden hacer que la información sea ilegible en sistemas intermedios como las bases de datos. Los datos tokenizados aún pueden procesarse en sistemas heredados, lo que hace que la tokenización sea más flexible que el cifrado clásico.
En muchas situaciones, el proceso de cifrado es un consumidor constante de potencia de procesamiento, por lo que un sistema de este tipo necesita gastos significativos en hardware y software especializados. [4]
Otra diferencia es que los tokens requieren muchos menos recursos computacionales para su procesamiento. Con la tokenización, los datos específicos se mantienen total o parcialmente visibles para su procesamiento y análisis, mientras que la información confidencial se mantiene oculta. Esto permite que los datos tokenizados se procesen más rápidamente y reduce la presión sobre los recursos del sistema. Esto puede ser una ventaja clave en sistemas que dependen del alto rendimiento.
En comparación con el cifrado, las tecnologías de tokenización reducen el tiempo, los gastos y el esfuerzo administrativo al tiempo que permiten el trabajo en equipo y la comunicación. [4]
Existen muchas formas de clasificar los tokens, pero actualmente no existe una clasificación unificada. Los tokens pueden ser: de uso único o múltiple, criptográficos o no criptográficos, reversibles o irreversibles, autenticables o no autenticables y varias combinaciones de estos.
En el contexto de los pagos, la diferencia entre tokens de alto y bajo valor juega un papel importante.
Los HVT sirven como sustitutos de los PAN reales en las transacciones de pago y se utilizan como un instrumento para completar una transacción de pago. Para funcionar, deben parecerse a los PAN reales. Varios HVT pueden asignarse a un solo PAN y a una sola tarjeta de crédito física sin que el propietario lo sepa. Además, los HVT pueden limitarse a ciertas redes o comerciantes, mientras que los PAN no.
Los HVT también se pueden vincular a dispositivos específicos para que las anomalías entre el uso de tokens, los dispositivos físicos y las ubicaciones geográficas se puedan marcar como potencialmente fraudulentas. El bloqueo de HVT mejora la eficiencia al reducir los costos computacionales mientras mantiene la precisión y reduce la vinculación de registros, ya que reduce la cantidad de registros que se comparan. [23]
Los LVT también actúan como sustitutos de los PAN reales en las transacciones de pago, pero su propósito es diferente. Los LVT no se pueden utilizar por sí solos para completar una transacción de pago. Para que un LVT funcione, debe ser posible hacerlo coincidir con el PAN real que representa, aunque solo de una manera estrictamente controlada. El uso de tokens para proteger los PAN se vuelve ineficaz si se viola un sistema de tokenización, por lo que proteger el sistema de tokenización en sí es extremadamente importante.
Los sistemas de tokenización de primera generación utilizan una base de datos para mapear desde datos en vivo a tokens sustitutos y viceversa. Esto requiere el almacenamiento, la gestión y la copia de seguridad continua de cada nueva transacción agregada a la base de datos de tokens para evitar la pérdida de datos. Otro problema es asegurar la coherencia entre los centros de datos, lo que requiere una sincronización continua de las bases de datos de tokens. Con este enfoque, es inevitable que se produzcan importantes compensaciones entre la coherencia, la disponibilidad y el rendimiento, según el teorema CAP . Esta sobrecarga agrega complejidad al procesamiento de transacciones en tiempo real para evitar la pérdida de datos y asegurar la integridad de los datos en los centros de datos, y también limita la escala. Almacenar todos los datos confidenciales en un solo servicio crea un objetivo atractivo para los ataques y las vulneraciones, e introduce riesgos legales y de privacidad en la agregación de datos ( privacidad en Internet) , en particular en la UE .
Otra limitación de las tecnologías de tokenización es la medición del nivel de seguridad de una solución determinada mediante una validación independiente. Dada la falta de estándares, esto último es fundamental para establecer la solidez de la tokenización cuando se utilizan tokens para el cumplimiento normativo. El PCI Council recomienda una verificación y validación independientes de cualquier afirmación de seguridad y cumplimiento: "Los comerciantes que estén considerando el uso de la tokenización deben realizar una evaluación y un análisis de riesgos exhaustivos para identificar y documentar las características únicas de su implementación particular, incluidas todas las interacciones con los datos de las tarjetas de pago y los sistemas y procesos de tokenización particulares" [24].
El método de generación de tokens también puede tener limitaciones desde una perspectiva de seguridad. Con preocupaciones sobre la seguridad y los ataques a los generadores de números aleatorios , que son una opción común para la generación de tokens y tablas de mapeo de tokens, se debe aplicar un escrutinio para garantizar que se utilicen métodos probados y validados en lugar de un diseño arbitrario. [25] [26] Los generadores de números aleatorios tienen limitaciones en términos de velocidad, entropía, siembra y sesgo, y las propiedades de seguridad deben analizarse y medirse cuidadosamente para evitar la previsibilidad y el compromiso.
Con la creciente adopción de la tokenización, han surgido nuevos enfoques tecnológicos de tokenización para eliminar dichos riesgos y complejidades operativas y permitir una mayor escalabilidad adecuada para los casos de uso emergentes de big data y el procesamiento de transacciones de alto rendimiento, especialmente en los servicios financieros y la banca. [27] Además de los métodos de tokenización convencionales, Protegrity proporciona seguridad adicional a través de su denominada "capa de ofuscación". Esto crea una barrera que impide no solo a los usuarios habituales acceder a información que no verían, sino también a los usuarios privilegiados que tienen acceso, como los administradores de bases de datos. [28]
La tokenización sin estado permite el mapeo aleatorio de elementos de datos en vivo a valores sustitutos sin necesidad de una base de datos y conservando las propiedades de aislamiento de la tokenización.
En noviembre de 2014, American Express lanzó su servicio de token que cumple con el estándar de tokenización EMV . [29] Otros ejemplos notables de sistemas de pago basados en tokenización, según el estándar EMVCo, incluyen Google Wallet , Apple Pay , [30] Samsung Pay , Microsoft Wallet , Fitbit Pay y Garmin Pay . Visa utiliza técnicas de tokenización para proporcionar una compra segura en línea y a través del móvil. [31]
Al utilizar blockchain, en lugar de depender de terceros confiables, es posible ejecutar bases de datos altamente accesibles y a prueba de manipulaciones para las transacciones. [32] [33] Con la ayuda de blockchain, la tokenización es el proceso de convertir el valor de un activo tangible o intangible en un token que se puede intercambiar en la red.
Esto permite la tokenización de activos financieros convencionales, por ejemplo, transformando los derechos en un token digital respaldado por el propio activo utilizando tecnología blockchain. [34] Además de eso, la tokenización permite la compartimentación y gestión sencilla y eficiente de datos entre múltiples usuarios. Los tokens individuales creados a través de la tokenización se pueden utilizar para dividir la propiedad y revender parcialmente un activo. [35] [36] En consecuencia, solo las entidades con el token apropiado pueden acceder a los datos. [34]
Numerosas empresas de blockchain respaldan la tokenización de activos. En 2019, eToro adquirió Firmo y cambió su nombre a eToroX. A través de su Token Management Suite, que está respaldada por monedas estables vinculadas al dólar estadounidense, eToroX permite la tokenización de activos. [37] [38]
La tokenización de capital es facilitada por STOKR, una plataforma que vincula a inversores con pequeñas y medianas empresas. Los tokens emitidos a través de la plataforma STOKR están legalmente reconocidos como valores transferibles según las regulaciones del mercado de capitales de la Unión Europea. [39]
Los Breakers permiten la tokenización de la propiedad intelectual, lo que permite a los creadores de contenido emitir sus propios tokens digitales. Los tokens se pueden distribuir a una variedad de participantes del proyecto. Sin intermediarios ni organismos reguladores, los creadores de contenido pueden integrar funciones de distribución de recompensas en el token. [39]
Para crear un sistema de pagos alternativo es necesario que varias entidades trabajen juntas para ofrecer servicios de pago basados en tecnología NFC (Near Field Communication) u otros servicios de pago a los usuarios finales. Uno de los problemas es la interoperabilidad entre los actores y, para resolver este problema, se propone el rol del administrador de servicios confiables (Trusted Service Manager, TSM) para establecer un vínculo técnico entre los operadores de redes móviles (MNO) y los proveedores de servicios, de modo que estas entidades puedan trabajar juntas. La tokenización puede desempeñar un papel en la mediación de tales servicios.
La tokenización como estrategia de seguridad se basa en la capacidad de sustituir un número de tarjeta real por un sustituto (eliminación del objetivo) y las consiguientes limitaciones impuestas al número de tarjeta sustituto (reducción del riesgo). Si el valor sustituto se puede utilizar de forma ilimitada o incluso de forma amplia, el valor del token adquiere tanto valor como el número de tarjeta de crédito real. En estos casos, el token puede protegerse mediante un segundo token dinámico que es único para cada transacción y también está asociado a una tarjeta de pago específica. Un ejemplo de tokens dinámicos específicos de la transacción son los criptogramas utilizados en la especificación EMV .
El Estándar de Seguridad de Datos de la Industria de Tarjetas de Pago , un conjunto de pautas de toda la industria que debe cumplir cualquier organización que almacene, procese o transmita datos de titulares de tarjetas, exige que los datos de tarjetas de crédito deben protegerse cuando se almacenan. [40] La tokenización, tal como se aplica a los datos de tarjetas de pago, a menudo se implementa para cumplir con este mandato, reemplazando los números de tarjetas de crédito y ACH en algunos sistemas con un valor aleatorio o una cadena de caracteres. [41] Los tokens se pueden formatear de diversas formas. [42] Algunos proveedores de servicios de tokens o productos de tokenización generan los valores sustitutos de tal manera que coincidan con el formato de los datos confidenciales originales. En el caso de los datos de tarjetas de pago, un token puede tener la misma longitud que un Número de cuenta principal ( número de tarjeta bancaria ) y contener elementos de los datos originales, como los últimos cuatro dígitos del número de tarjeta. Cuando se realiza una solicitud de autorización de tarjeta de pago para verificar la legitimidad de una transacción, se puede devolver un token al comerciante en lugar del número de tarjeta, junto con el código de autorización para la transacción. El token se almacena en el sistema receptor mientras que los datos reales del titular de la tarjeta se asignan al token en un sistema de tokenización seguro. El almacenamiento de tokens y datos de tarjetas de pago debe cumplir con los estándares PCI actuales, incluido el uso de criptografía fuerte. [43]
La tokenización se encuentra actualmente en la definición de estándares en ANSI X9 como X9.119 Parte 2. X9 es responsable de los estándares de la industria para criptografía financiera y protección de datos, incluyendo administración de PIN de tarjetas de pago, cifrado de tarjetas de crédito y débito y tecnologías y procesos relacionados. El PCI Council también ha manifestado su apoyo a la tokenización para reducir el riesgo de violaciones de datos, cuando se combina con otras tecnologías como el cifrado punto a punto (P2PE) y evaluaciones de cumplimiento con las pautas PCI DSS. [44] Visa Inc. publicó Visa Tokenization Best Practices [45] para usos de tokenización en aplicaciones y servicios de manejo de tarjetas de crédito y débito. En marzo de 2014, EMVCo LLC publicó su primera especificación de tokenización de pagos para EMV . [46] PCI DSS es el estándar utilizado con más frecuencia para sistemas de tokenización utilizados por los actores de la industria de pagos. [22]
La tokenización puede dificultar a los atacantes el acceso a datos confidenciales fuera del sistema o servicio de tokenización. La implementación de la tokenización puede simplificar los requisitos de PCI DSS , ya que los sistemas que ya no almacenan ni procesan datos confidenciales pueden tener una reducción de los controles aplicables requeridos por las pautas de PCI DSS.
Como práctica recomendada en materia de seguridad, [47] se debe llevar a cabo una evaluación y validación independientes de todas las tecnologías utilizadas para la protección de datos, incluida la tokenización, para establecer la seguridad y la solidez del método y la implementación antes de poder hacer cualquier afirmación de cumplimiento de la privacidad, el cumplimiento normativo y la seguridad de los datos. Esta validación es particularmente importante en la tokenización, ya que los tokens se comparten externamente en el uso general y, por lo tanto, están expuestos a entornos de alto riesgo y baja confianza. La inviabilidad de revertir un token o un conjunto de tokens a datos sensibles en vivo debe establecerse utilizando mediciones y pruebas aceptadas por la industria por parte de expertos apropiados independientes del proveedor del servicio o la solución.
No todos los datos de la organización se pueden tokenizar, y es necesario examinarlos y filtrarlos.
Cuando las bases de datos se utilizan a gran escala, se expanden exponencialmente, lo que hace que el proceso de búsqueda tome más tiempo, restringe el rendimiento del sistema y aumenta los procesos de copia de seguridad. Una base de datos que vincula información confidencial a tokens se denomina bóveda. Con la incorporación de nuevos datos, la carga de trabajo de mantenimiento de la bóveda aumenta significativamente.
Para garantizar la coherencia de la base de datos, las bases de datos de tokens deben sincronizarse continuamente.
Además de eso, se deben construir canales de comunicación seguros entre los datos confidenciales y la bóveda para que los datos no se vean comprometidos en el camino hacia o desde el almacenamiento. [4]
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite web}}
: Falta o está vacío |url=
( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda )