stringtranslate.com

Privacidad diferencial

Una definición informal de privacidad diferencial

La privacidad diferencial ( DP ) es un marco matemáticamente riguroso para publicar información estadística sobre conjuntos de datos y al mismo tiempo proteger la privacidad de los interesados ​​individuales. Permite al titular de datos compartir patrones agregados del grupo al tiempo que limita la información que se filtra sobre individuos específicos. [1] [2] Esto se hace inyectando ruido cuidadosamente calibrado en los cálculos estadísticos de manera que se preserve la utilidad de la estadística y al mismo tiempo se limite demostrablemente lo que se puede inferir sobre cualquier individuo en el conjunto de datos.

Otra forma de describir la privacidad diferencial es como una restricción en los algoritmos utilizados para publicar información agregada sobre una base de datos estadística que limita la divulgación de información privada de los registros en la base de datos. Por ejemplo, algunas agencias gubernamentales utilizan algoritmos diferencialmente privados para publicar información demográfica u otros agregados estadísticos garantizando al mismo tiempo la confidencialidad de las respuestas de las encuestas, y las empresas para recopilar información sobre el comportamiento de los usuarios mientras controlan lo que es visible incluso para los analistas internos.

En términos generales, un algoritmo es diferencialmente privado si un observador que ve su resultado no puede decir si la información de un individuo en particular se utilizó en el cálculo. La privacidad diferencial a menudo se analiza en el contexto de la identificación de personas cuya información puede estar en una base de datos. Aunque no se refiere directamente a ataques de identificación y reidentificación, los algoritmos diferencialmente privados probablemente resisten tales ataques. [3]

ε-privacidad diferencial

Una definición formal de privacidad ε-diferencial. es un conjunto de datos sin datos privados y es uno con ellos. Esto es "privacidad diferencial ε pura", lo que significa δ = 0.

El artículo de 2006 de Cynthia Dwork , Frank McSherry , Kobbi Nissim y Adam D. Smith [3] introdujo el concepto de privacidad ε-diferencial, una definición matemática de la pérdida de privacidad asociada con cualquier divulgación de datos extraídos de una base de datos estadística . [4] (Aquí, el término base de datos estadística significa un conjunto de datos que se recopilan bajo el compromiso de confidencialidad con el fin de producir estadísticas que, mediante su producción, no comprometan la privacidad de las personas que proporcionaron los datos).

La definición de privacidad diferencial ε requiere que un cambio en una entrada en una base de datos solo cree un pequeño cambio en la distribución de probabilidad de los resultados de las mediciones, tal como lo ve el atacante. [3] La intuición para la definición de privacidad diferencial ε es que la privacidad de una persona no puede verse comprometida por una publicación estadística si sus datos no están en la base de datos. [5] En la privacidad diferencial, a cada individuo se le otorga aproximadamente la misma privacidad que resultaría si se eliminaran sus datos. [5] Es decir, las funciones estadísticas ejecutadas en la base de datos no deberían verse afectadas sustancialmente por la eliminación, adición o cambio de cualquier individuo en los datos. [5]

La contribución de un individuo al resultado de una consulta a una base de datos depende en parte de cuántas personas participan en la consulta. Si la base de datos contiene datos de una sola persona, los datos de esa persona contribuyen al 100%. Si la base de datos contiene datos de cien personas, los datos de cada persona contribuyen sólo con el 1%. La idea clave de la privacidad diferencial es que a medida que la consulta se realiza sobre los datos de cada vez menos personas, es necesario agregar más ruido al resultado de la consulta para producir la misma cantidad de privacidad. De ahí el nombre del artículo de 2006, "Calibración del ruido a la sensibilidad en el análisis de datos privados". [ cita necesaria ]

Definición

Sea ε un número real positivo y un algoritmo aleatorio que toma un conjunto de datos como entrada (que representa las acciones de la parte de confianza que posee los datos). Denotemos la imagen de .

Se dice que el algoritmo proporciona privacidad diferencial (ε, δ) si, para todos los conjuntos de datos que difieren en un solo elemento (es decir, los datos de una persona), y todos los subconjuntos de :

donde la probabilidad se toma sobre la aleatoriedad utilizada por el algoritmo. [6] Esta definición a veces se denomina "privacidad diferencial aproximada", siendo la "privacidad diferencial pura" un caso especial cuando . En el último caso, se dice comúnmente que el algoritmo satisface la privacidad diferencial ε (es decir, omitiendo ). [ cita necesaria ]

La privacidad diferencial ofrece garantías sólidas y sólidas que facilitan el diseño modular y el análisis de mecanismos diferencialmente privados debido a su componibilidad, robustez al posprocesamiento y degradación elegante en presencia de datos correlacionados. [ cita necesaria ]

Ejemplo

Según esta definición, la privacidad diferencial es una condición del mecanismo de divulgación (es decir, la parte de confianza que divulga información sobre el conjunto de datos) y no del conjunto de datos en sí. Intuitivamente, esto significa que para dos conjuntos de datos cualesquiera que sean similares, un algoritmo privado diferencialmente determinado se comportará aproximadamente de la misma manera en ambos conjuntos de datos. La definición ofrece una fuerte garantía de que la presencia o ausencia de un individuo no afectará significativamente el resultado final del algoritmo.

Por ejemplo, supongamos que tenemos una base de datos de registros médicos donde cada registro es un par ( Nombre , X ), donde un valor booleano indica si una persona tiene diabetes o no. Por ejemplo:

Ahora supongamos que un usuario malintencionado (a menudo denominado adversario ) quiere saber si Chandler tiene diabetes o no. Supongamos que también sabe en qué fila de la base de datos reside Chandler. Ahora supongamos que al adversario solo se le permite usar una forma particular de consulta que devuelve la suma parcial de las primeras filas de la columna en la base de datos. Para encontrar el estado de diabetes de Chandler, el adversario ejecuta y luego calcula su diferencia. En este ejemplo, y , su diferencia es 1. Esto indica que el campo "Tiene diabetes" en la fila de Chandler debe ser 1. Este ejemplo destaca cómo la información individual puede verse comprometida incluso sin consultar explícitamente la información de un individuo específico.

Continuando con este ejemplo, si construimos reemplazando (Chandler, 1) con (Chandler, 0), entonces este adversario malicioso podrá distinguirlo calculando cada conjunto de datos. Si se requiriera que el adversario recibiera los valores a través de un algoritmo diferencialmente privado, para un valor suficientemente pequeño , entonces no podría distinguir entre los dos conjuntos de datos.

Componibilidad y robustez para el posprocesamiento.

La componibilidad se refiere al hecho de que la distribución conjunta de los resultados de mecanismos diferencialmente privados (posiblemente elegidos de forma adaptativa) satisface la privacidad diferencial. [3]

La otra propiedad importante para el uso modular de la privacidad diferencial es la solidez del posprocesamiento. Esto se define en el sentido de que para cualquier función determinista o aleatoria definida sobre la imagen del mecanismo , si satisface la privacidad diferencial ε, también lo hace . [3]

La propiedad de composición permite la construcción modular y el análisis de mecanismos diferencialmente privados [3] y motiva el concepto de presupuesto de pérdida de privacidad . [ cita necesaria ] Si todos los elementos que acceden a datos confidenciales de un mecanismo complejo son privados de manera diferencial por separado, también lo será su combinación, seguida de un posprocesamiento arbitrario. [3]

Privacidad del grupo

En general, la privacidad diferencial ε está diseñada para proteger la privacidad entre bases de datos vecinas que difieren sólo en una fila. Esto significa que ningún adversario con información auxiliar arbitraria puede saber si un participante en particular envió su información. Sin embargo, esto también es ampliable. [3] Es posible que queramos proteger bases de datos que difieren en filas, lo que equivale a que un adversario con información auxiliar arbitraria sepa si determinados participantes enviaron su información. Esto se puede lograr porque si los elementos cambian, la dilatación de la probabilidad está limitada por , en lugar de [8] , es decir, para D 1 y D 2 que difieren en los elementos: por lo tanto, establecer ε en lugar de lograr el resultado deseado (protección de los elementos). [3] En otras palabras, en lugar de tener cada elemento ε-protegido de forma privada diferencial, ahora cada grupo de elementos está protegido de forma ε-diferencialmente privada (y cada elemento está -protegido de manera diferencialmente privada). [3]

Interpretación de la prueba de hipótesis.

Se puede pensar en la privacidad diferencial como si limitara las tasas de error en una prueba de hipótesis. Consideremos dos hipótesis:

Entonces, hay dos tasas de error:

La protección ideal implicaría que ambas tasas de error sean iguales, pero para una configuración fija (ε, δ), un atacante puede lograr las siguientes tasas: [9]

Mecanismos ε-diferencialmente privados

Dado que la privacidad diferencial es un concepto probabilístico, cualquier mecanismo diferencialmente privado es necesariamente aleatorio. Algunos de ellos, como el mecanismo de Laplace, que se describe a continuación, se basan en agregar ruido controlado a la función que queremos calcular. Otros, como el mecanismo exponencial [10] y el muestreo posterior [11], toman muestras de una familia de distribuciones dependiente del problema.

Una definición importante con respecto a los mecanismos ε-diferencialmente privados es la sensibilidad. [3] Sea un número entero positivo, una colección de conjuntos de datos y una función. Una definición de la sensibilidad de una función, denotada , se puede definir mediante: [3] donde el máximo está sobre todos los pares de conjuntos de datos y difiere en como máximo un elemento y denota la norma L1 . [3] En el ejemplo de la base de datos médica a continuación, si consideramos la función , entonces la sensibilidad de la función es uno, ya que cambiar cualquiera de las entradas en la base de datos hace que la salida de la función cambie en cero o uno. Esto se puede generalizar a otros espacios métricos (medidas de distancia) y debe ser para garantizar que funcionen ciertos algoritmos diferencialmente privados, incluida la adición de ruido de la distribución gaussiana (que requiere la norma L2 ) en lugar de la distribución de Laplace . [3]

Existen técnicas (que se describen a continuación) mediante las cuales podemos crear un algoritmo diferencialmente privado para funciones, con parámetros que varían según su sensibilidad. [3]

Mecanismo de Laplace

Mecanismo de Laplace que ofrece privacidad diferencial de 0,5 para una función con sensibilidad 1.

El mecanismo de Laplace agrega ruido de Laplace (es decir, ruido de la distribución de Laplace , que puede expresarse mediante la función de densidad de probabilidad , que tiene media cero y desviación estándar ). Ahora, en nuestro caso, definimos la función de salida de como una función con valor real (llamada salida de transcripción por ) como donde y es la consulta/función con valor real original que planeamos ejecutar en la base de datos. Ahora claramente se puede considerar que es una variable aleatoria continua, donde

que es como máximo . Podemos considerarlo como el factor de privacidad . De ello se sigue un mecanismo diferencialmente privado (como puede verse en la definición anterior). Si intentamos utilizar este concepto en nuestro ejemplo de diabetes, del hecho derivado anteriormente se deduce que para tener como algoritmo privado diferencial necesitamos tener . Aunque aquí hemos utilizado el ruido de Laplace, se pueden emplear otras formas de ruido, como el ruido gaussiano, pero pueden requerir una ligera relajación de la definición de privacidad diferencial. [8]

Respuesta aleatoria

Un ejemplo sencillo, especialmente desarrollado en las ciencias sociales , [12] es pedirle a una persona que responda a la pregunta "¿Es usted dueño del atributo A ?", según el siguiente procedimiento:

  1. Tirar una moneda .
  2. Si sale cara, lanza la moneda nuevamente (ignorando el resultado) y responde la pregunta honestamente.
  3. Si sale cruz, lance la moneda nuevamente y responda "Sí" si sale cara, "No" si sale cruz.

(El lanzamiento adicional aparentemente redundante en el primer caso es necesario en situaciones en las que otros pueden observar el simple hecho de lanzar una moneda, incluso si el resultado real permanece oculto). La confidencialidad surge entonces de la refutación de las respuestas individuales.

Pero, en conjunto, estos datos con muchas respuestas son significativos, ya que las respuestas positivas las dan una cuarta parte de las personas que no tienen el atributo A y las tres cuartas partes de las personas que sí lo poseen. Por lo tanto, si p es la verdadera proporción de personas con A , entonces esperamos obtener (1/4)(1- p ) + (3/4) p = (1/4) + p /2 respuestas positivas. Por tanto, es posible estimar p .

En particular, si el atributo A es sinónimo de comportamiento ilegal, entonces responder "Sí" no es incriminatorio, en la medida en que la persona tiene probabilidad de responder "Sí", cualquiera que sea.

Aunque este ejemplo, inspirado en una respuesta aleatoria , podría ser aplicable a microdatos (es decir, publicar conjuntos de datos con cada respuesta individual), por definición, la privacidad diferencial excluye las publicaciones de microdatos y solo es aplicable a consultas (es decir, agregar respuestas individuales en un resultado), ya que esto violaría los requisitos, más específicamente la negación plausible de que un sujeto participó o no. [13] [14]

Transformaciones estables

Una transformación es estable si la distancia de Hamming entre y es como máximo la distancia de Hamming entre y para dos bases de datos cualesquiera . [ cita necesaria ] Si hay un mecanismo que es diferencialmente privado, entonces el mecanismo compuesto es diferencialmente privado. [7]

Esto podría generalizarse a la privacidad del grupo, ya que el tamaño del grupo podría considerarse como la distancia de Hamming entre y (donde contiene el grupo y no). En este caso es diferencialmente privado. [ cita necesaria ]

Investigación

Las primeras investigaciones conducen a una privacidad diferencial

En 1977, Tore Dalenius formalizó las matemáticas de la supresión celular. [15] Tore Dalenius fue un estadístico sueco que contribuyó a la privacidad estadística a través de su artículo de 1977 que reveló un punto clave sobre las bases de datos estadísticas, que era que las bases de datos no deben revelar información sobre un individuo que de otro modo no sea accesible. [16] También definió una tipología de divulgaciones estadísticas. [4]

En 1979, Dorothy Denning , Peter J. Denning y Mayer D. Schwartz formalizaron el concepto de Tracker, un adversario que podía conocer el contenido confidencial de una base de datos estadística creando una serie de consultas específicas y recordando los resultados. [17] Esta y futuras investigaciones mostraron que las propiedades de privacidad en una base de datos solo podrían preservarse considerando cada nueva consulta a la luz de (posiblemente todas) las consultas anteriores. Esta línea de trabajo a veces se denomina privacidad de consultas, y el resultado final fue que rastrear el impacto de una consulta en la privacidad de las personas en la base de datos era NP-difícil . [ cita necesaria ]

Siglo 21

En 2003, Kobbi Nissim e Irit Dinur demostraron que es imposible publicar consultas arbitrarias en una base de datos estadística privada sin revelar cierta cantidad de información privada, y que todo el contenido informativo de la base de datos puede revelarse publicando los resultados de una cantidad sorprendentemente pequeña. número de consultas aleatorias, mucho menos de lo que implicaba el trabajo anterior. [18] El fenómeno general se conoce como Ley Fundamental de Recuperación de Información , y su idea clave, a saber, que en el caso más general, la privacidad no se puede proteger sin inyectar cierta cantidad de ruido, condujo al desarrollo de la privacidad diferencial. [ cita necesaria ]

En 2006, Cynthia Dwork , Frank McSherry , Kobbi Nissim y Adam D. Smith publicaron un artículo [3] formalizando la cantidad de ruido que era necesario agregar y proponiendo un mecanismo generalizado para hacerlo. [ cita necesaria ] Este artículo también creó la primera definición formal de privacidad diferencial. [4] Su trabajo recibió conjuntamente el premio TCC Test-of-Time de 2016 [19] y el premio Gödel de 2017 . [20]

Desde entonces, investigaciones posteriores han demostrado que hay muchas maneras de producir estadísticas muy precisas a partir de la base de datos y al mismo tiempo garantizar altos niveles de privacidad . [1]

Adopción en aplicaciones del mundo real

Hasta la fecha, existen más de 12 implementaciones de privacidad diferencial en el mundo real , siendo las más notables:

Consideraciones de propósito público

Hay varias consideraciones de propósito público con respecto a la privacidad diferencial que es importante considerar, especialmente para los formuladores de políticas y las audiencias centradas en las políticas interesadas en las oportunidades y riesgos sociales de la tecnología: [30]

Ataques en la práctica

Debido a que las técnicas de privacidad diferencial se implementan en computadoras reales, son vulnerables a diversos ataques que no es posible compensar únicamente con las matemáticas de las técnicas mismas. Además de los defectos estándar de los artefactos de software que pueden identificarse mediante pruebas o fuzzing , las implementaciones de mecanismos diferencialmente privados pueden sufrir las siguientes vulnerabilidades:

Ver también

Referencias

  1. ^ ab Hilton, M; Cali (2012). "Privacidad diferencial: un estudio histórico". Académico semántico . S2CID  16861132 . Consultado el 31 de diciembre de 2023 .
  2. ^ Dwork, Cynthia (25 de abril de 2008). "Privacidad diferencial: una encuesta de resultados". En Agrawal, Manindra; Du, Dingzhu; Duan, Zhenhua; Li, Angsheng (eds.). Teoría y Aplicaciones de Modelos de Computación . Apuntes de conferencias sobre informática. vol. 4978. Springer Berlín Heidelberg. págs. 1-19. doi :10.1007/978-3-540-79228-4_1. ISBN 978-3-540-79227-7. S2CID  2887752.
  3. ^ abcdefghijklmnop Calibración del ruido a la sensibilidad en el análisis de datos privados por Cynthia Dwork, Frank McSherry, Kobbi Nissim, Adam Smith. En Conferencia de Teoría de la Criptografía (TCC), Springer, 2006. doi :10.1007/11681878_14. La versión completa aparece en Journal of Privacy and Confidentiality, 7 (3), 17-51. doi :10.29012/jpc.v7i3.405
  4. ^ abc HILTON, MICHAEL. "Privacidad diferencial: un estudio histórico" (PDF) . S2CID  16861132. Archivado desde el original (PDF) el 1 de marzo de 2017. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  5. ^ abcDwork , Cynthia (2008). "Privacidad diferencial: una encuesta de resultados". En Agrawal, Manindra; Du, Dingzhu; Duan, Zhenhua; Li, Angsheng (eds.). Teoría y Aplicaciones de Modelos de Computación . Apuntes de conferencias sobre informática. vol. 4978. Berlín, Heidelberg: Springer. págs. 1-19. doi :10.1007/978-3-540-79228-4_1. ISBN 978-3-540-79228-4.
  6. ^ Los fundamentos algorítmicos de la privacidad diferencial por Cynthia Dwork y Aaron Roth. Fundamentos y tendencias de la informática teórica. vol. 9, núm. 3–4, págs. 211‐407, agosto de 2014. doi :10.1561/0400000042
  7. ^ abc Consultas integradas de privacidad: una plataforma extensible para el análisis de datos que preservan la privacidad por Frank D. McSherry. En Actas de la 35ª Conferencia Internacional SIGMOD sobre Gestión de Datos (SIGMOD), 2009. doi :10.1145/1559845.1559850
  8. ^ ab Privacidad diferencial por Cynthia Dwork, Coloquio internacional sobre autómatas, lenguajes y programación (ICALP) 2006, p. 1–12. doi :10.1007/11787006_1
  9. ^ Kairouz, Peter, Sewoong Oh y Pramod Viswanath. "El teorema de composición de la privacidad diferencial". Congreso internacional sobre aprendizaje automático. PMLR, 2015.enlace
  10. ^ F. McSherry y K. Talwar. Diseño Mechasim a través de Privacidad Diferencial. Actas del 48º Simposio Anual sobre Fundamentos de la Informática, 2007.
  11. ^ Christos Dimitrakakis, Blaine Nelson, Aikaterini Mitrokotsa, Benjamin Rubinstein. Inferencia bayesiana robusta y privada. Teoría del aprendizaje algorítmico 2014
  12. ^ Warner, SL (marzo de 1965). "Respuesta aleatoria: una técnica de encuesta para eliminar el sesgo de respuesta evasiva". Revista de la Asociación Estadounidense de Estadística . 60 (309). Taylor y Francisco : 63–69. doi :10.1080/01621459.1965.10480775. JSTOR  2283137. PMID  12261830. S2CID  35435339.
  13. ^ Dtrabajo, Cynthia. "Una base firme para el análisis de datos privados". Comunicaciones de la JCA 54.1 (2011): 86–95, supra nota 19, página 91.
  14. ^ Bambauer, Jane, Krishnamurty Muralidhar y Rathindra Sarathy. "El oro de los tontos: una crítica ilustrada de la privacidad diferencial". Vand. J.Ent. Y tecnología. L. 16 (2013): 701.
  15. ^ Tore Dalenius (1977). "Hacia una metodología para el control de la divulgación estadística". Estadísticas estadísticas . 15 . hdl :1813/111303.
  16. ^ Dwork, Cynthia (2006). "Privacidad Diferencial". En Bugliesi, Michele; Preneel, Bart; Sassone, Vladimiro; Wegener, Ingo (eds.). Autómatas, Lenguajes y Programación . Apuntes de conferencias sobre informática. vol. 4052. Berlín, Heidelberg: Springer. págs. 1–12. doi :10.1007/11787006_1. ISBN 978-3-540-35908-1.
  17. ^ Dorothy E. Denning; Peter J. Denning; Mayer D. Schwartz (marzo de 1979). "The Tracker: una amenaza para la seguridad de las bases de datos estadísticas". Transacciones ACM en sistemas de bases de datos . 4 (1): 76–96. doi :10.1145/320064.320069. S2CID  207655625.
  18. ^ Irit Dinur y Kobbi Nissim. 2003. Revelar información preservando la privacidad. En Actas del vigésimo segundo simposio ACM SIGMOD-SIGACT-SIGART sobre Principios de sistemas de bases de datos (PODS '03). ACM, Nueva York, NY, EE. UU., 202–210. doi :10.1145/773153.773173
  19. ^ "Premio TCC a la prueba del tiempo".
  20. ^ "Premio Gödel 2017".
  21. ^ Ashwin Machanavajjhala, Daniel Kifer, John M. Abowd, Johannes Gehrke y Lars Vilhuber. "Privacidad: la teoría se encuentra con la práctica en el mapa". En Actas de la 24ª Conferencia Internacional sobre Ingeniería de Datos, ICDE) 2008.
  22. ^ Erlingsson, Úlfar; Pihur, Vasyl; Korolova, Alexandra (2014). "RAPPOR: respuesta ordinal agregable aleatoria que preserva la privacidad". Actas de la Conferencia ACM SIGSAC 2014 sobre seguridad informática y de las comunicaciones . págs. 1054-1067. doi :10.1145/2660267.2660348. ISBN 978-1-4503-2957-6.
  23. ^ google/rappor, GitHub, 15 de julio de 2021
  24. ^ Abordar la movilidad urbana con tecnología por Andrew Eland. Blog de Google Policy Europe, 18 de noviembre de 2015.
  25. ^ "Apple - Información de prensa - Apple presenta una vista previa de iOS 10, el mayor lanzamiento de iOS jamás realizado". Manzana . Consultado el 20 de junio de 2023 .
  26. ^ Recopilación de datos de telemetría de forma privada por Bolin Ding, Jana Kulkarni, Sergey Yekhanin. NIPS 2017.
  27. ^ Messing, Salomón; DeGregorio, Cristina; Hillenbrand, Bennett; Rey, Gary; Mahanti, Saurav; Mukerjee, Zagreb; Nayak, Chayá; Perseverantemente, Nate; Estado, Bogdan (2020), Conjunto de datos de URL completos protegidos por privacidad de Facebook, Zagreb Mukerjee, Harvard Dataverse, doi :10.7910/dvn/tdoapg , consultado el 8 de febrero de 2023
  28. ^ Evans, Georgina; King, Gary (enero de 2023). "Inferencias estadísticamente válidas a partir de publicaciones de datos diferencialmente privados, con aplicación al conjunto de datos de URL de Facebook". Análisis Político . 31 (1): 1–21. doi :10.1017/pan.2022.1. ISSN  1047-1987. S2CID  211137209.
  29. ^ "Evitación de divulgación para el censo de 2020: introducción". 2 de noviembre de 2021.
  30. ^ "Ficha tecnológica: privacidad diferencial". Centro Belfer para la Ciencia y Asuntos Internacionales . Consultado el 12 de abril de 2021 .
  31. ^ McSherry, Frank (25 de febrero de 2018). "La privacidad diferencial de Uber ... probablemente no lo sea". GitHub .
  32. ^ Lyu, Min; Su, Dong; Li, Ninghui (1 de febrero de 2017). "Comprensión de la técnica de vectores dispersos para la privacidad diferencial". Actas del Fondo de Dotación VLDB . 10 (6): 637–648. arXiv : 1603.01699 . doi :10.14778/3055330.3055331. S2CID  5449336.
  33. ^ Haeberlen, Andreas; Pierce, Benjamín C.; Narayan, Arjun (2011). "Privacidad diferencial bajo fuego". 20º Simposio de Seguridad USENIX .
  34. ^ Mironov, Ilya (octubre de 2012). "Sobre la importancia de los bits menos significativos para la privacidad diferencial". Actas de la conferencia ACM de 2012 sobre seguridad informática y de las comunicaciones (PDF) . ACM. págs. 650–661. doi :10.1145/2382196.2382264. ISBN 9781450316514. S2CID  3421585.
  35. ^ Andrysco, Marc; Kohlbrenner, David; Cortacésped, Keaton; Jhala, Ranjit; Lerner, Sorin; Shacham, Hovav (mayo de 2015). "Sobre coma flotante anormal y sincronización anormal". Simposio IEEE 2015 sobre seguridad y privacidad . págs. 623–639. doi :10.1109/SP.2015.44. ISBN 978-1-4673-6949-7. S2CID  1903469.
  36. ^ Kohlbrenner, David; Shacham, Hovav (agosto de 2017). "Sobre la eficacia de las mitigaciones contra los canales de temporización de punto flotante". Actas del 26º Simposio de la Conferencia USENIX sobre Seguridad . Asociación USENIX: 69–81.
  37. ^ Dooley, Isaac; Kale, Laxmikant (septiembre de 2006). "Cuantificación de la interferencia provocada por valores de coma flotante subnormales" (PDF) . Actas del taller sobre interferencia del sistema operativo en aplicaciones de alto rendimiento .

Otras lecturas

Publicaciones

Tutoriales