stringtranslate.com

Analítica web

La analítica web es la medición, recopilación , análisis y generación de informes de datos web para comprender y optimizar el uso de la web . [1] La analítica web no es solo un proceso para medir el tráfico web , sino que puede usarse como una herramienta para la investigación empresarial y de mercado y para evaluar y mejorar la eficacia del sitio web . Las aplicaciones de analítica web también pueden ayudar a las empresas a medir los resultados de las campañas publicitarias tradicionales impresas o transmitidas . Se puede utilizar para estimar cómo cambia el tráfico a un sitio web después de lanzar una nueva campaña publicitaria. La analítica web proporciona información sobre la cantidad de visitantes a un sitio web y la cantidad de vistas de página, o crea perfiles de comportamiento del usuario. [2] Ayuda a medir las tendencias de tráfico y popularidad, lo que es útil para la investigación de mercado.

Pasos básicos del proceso de analítica web

Pasos básicos del proceso de análisis web

La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, [3] que son:

Otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos:

El objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumenten o maximicen el efecto de un resultado de interés probado estadísticamente.

Cada etapa impacta o puede impactar (es decir, impulsar) la etapa anterior o posterior. Por lo tanto, a veces los datos que están disponibles para la recopilación impactan la estrategia en línea. Otras veces, la estrategia en línea afecta los datos recopilados.

Categorías de análisis web

Existen al menos dos categorías de análisis web: análisis web local y externo .

En el pasado, el análisis web se ha utilizado para referirse a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto difuso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías. Muchos proveedores diferentes proporcionan software y servicios de análisis web en el sitio . Hay dos formas técnicas principales de recopilar los datos. El primer método y el tradicional, el análisis de archivos de registro del servidor , lee los archivos de registro en los que el servidor web registra las solicitudes de archivos de los navegadores. El segundo método, el etiquetado de páginas , utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor de análisis de terceros dedicado, siempre que un navegador web renderice una página web o, si se desea, cuando se produce un clic del mouse. Ambos recopilan datos que se pueden procesar para producir informes de tráfico web.

Análisis web en el sitio

No existen definiciones acordadas a nivel mundial en el ámbito de la analítica web, ya que los organismos del sector llevan tiempo intentando ponerse de acuerdo sobre definiciones que sean útiles y definitivas, es decir, las métricas de las herramientas y productos de diferentes empresas pueden tener distintas formas de medición, por lo que, como resultado, un mismo nombre de métrica puede representar distintos significados de los datos. Los principales organismos que han aportado información en este ámbito han sido el IAB (Interactive Advertising Bureau), JICWEBS (The Joint Industry Committee for Web Standards in the UK and Ireland) y la DAA (Digital Analytics Association), formalmente conocida como WAA (Web Analytics Association, EE. UU.). Sin embargo, muchos términos se utilizan de forma coherente en las distintas herramientas de analítica, por lo que la siguiente lista, basada en esas convenciones, puede ser un punto de partida útil:

Análisis web externo

El análisis web externo se basa en el análisis de datos abiertos, la exploración de redes sociales y la participación en las propiedades web. Por lo general, se utiliza para comprender cómo comercializar un sitio mediante la identificación de las palabras clave etiquetadas en este sitio, ya sea desde las redes sociales o desde otros sitios web.

Fuentes de datos de análisis web

El objetivo fundamental de la analítica web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos proceden principalmente de cuatro fuentes: [8]

  1. Datos de solicitud HTTP directa : provienen directamente de los mensajes de solicitud HTTP (encabezados de solicitud HTTP).
  2. Datos a nivel de red y generados por el servidor asociados con solicitudes HTTP: no son parte de una solicitud HTTP, pero son necesarios para transmisiones de solicitudes exitosas, por ejemplo, la dirección IP de un solicitante.
  3. Datos de nivel de aplicación enviados con solicitudes HTTP: generados y procesados ​​por programas de nivel de aplicación (como JavaScript , PHP y ASP.Net ), incluidas sesiones y referencias. Estos datos suelen ser capturados por registros internos en lugar de servicios de análisis web públicos.
  4. Datos externos: se pueden combinar con datos del sitio para ayudar a ampliar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web. Por ejemplo, las direcciones IP suelen estar asociadas con regiones geográficas y proveedores de servicios de Internet, tasas de apertura y clics de correo electrónico , datos de campañas de correo directo, ventas, historial de clientes potenciales u otros tipos de datos según sea necesario.

Análisis de archivos de registro del servidor web

Los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se descubrió que un programa podía leer estos archivos de registro para obtener datos sobre la popularidad del sitio web. Así surgió el software de análisis de registros web .

A principios de los años 90, las estadísticas de los sitios web consistían principalmente en contar la cantidad de solicitudes de clientes (o visitas ) realizadas al servidor web. Al principio, este era un método razonable, ya que cada sitio web solía constar de un solo archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban varios archivos HTML, este conteo se volvió menos útil. El primer analizador de registros comercial verdadero fue lanzado por IPRO en 1994. [9]

A mediados de los años 90 se introdujeron dos unidades de medida para medir con mayor precisión la cantidad de actividad humana en los servidores web: las visitas a páginas y las sesiones . Una visita a una página se definía como una solicitud realizada al servidor web para obtener una página, en lugar de un gráfico, mientras que una visita se definía como una secuencia de solicitudes de un cliente identificado de forma única que expiraba después de una cierta cantidad de inactividad, normalmente 30 minutos.

La aparición de robots y arañas de motores de búsqueda a finales de los años 1990, junto con los servidores proxy web y las direcciones IP asignadas dinámicamente para grandes empresas y proveedores de servicios de Internet , hicieron que fuera más difícil identificar a los visitantes humanos únicos de un sitio web. Los analizadores de registros respondieron rastreando las visitas mediante cookies e ignorando las solicitudes de arañas conocidas. [ cita requerida ]

El uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará de la caché del navegador y, por lo tanto, el servidor web no recibirá ninguna solicitud. Esto significa que se pierde la ruta de la persona a través del sitio. El almacenamiento en caché se puede anular configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores. [10]

Etiquetado de páginas

Las preocupaciones sobre la precisión del análisis de archivos de registro en presencia de almacenamiento en caché y el deseo de poder realizar análisis web como un servicio subcontratado, llevaron al segundo método de recopilación de datos, el etiquetado de páginas o " balizas web ".

A mediados de los años 90, los contadores web eran muy comunes: eran imágenes incluidas en una página web que mostraban la cantidad de veces que se había solicitado la imagen, lo que era una estimación de la cantidad de visitas a esa página. A fines de los años 90, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible y, mediante el uso de JavaScript, pasar junto con la solicitud de imagen cierta información sobre la página y el visitante. Esta información puede ser procesada de forma remota por una empresa de análisis web y generar estadísticas exhaustivas.

El servicio de analítica web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarlo de forma única durante su visita y en visitas posteriores. Las tasas de aceptación de cookies varían significativamente entre sitios web y pueden afectar la calidad de los datos recopilados y notificados.

La recopilación de datos de sitios web mediante un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda DNS adicional por parte de la computadora del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, las demoras en completar búsquedas DNS exitosas o fallidas pueden provocar que no se recopilen los datos.

Con la creciente popularidad de las soluciones basadas en Ajax , una alternativa al uso de una imagen invisible es implementar una llamada de retorno al servidor desde la página renderizada. En este caso, cuando la página se renderiza en el navegador web, un fragmento de código JavaScript llamaría de vuelta al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web.

Análisis de archivos de registro frente a etiquetado de páginas

Tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que desean realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Entonces surge la pregunta de qué método debería elegir una empresa. Cada enfoque tiene sus ventajas y desventajas. [11] [12]

Ventajas del análisis de archivos de registro

Las principales ventajas del análisis de archivos de registro frente al etiquetado de páginas son las siguientes:

Ventajas del etiquetado de páginas

Las principales ventajas del etiquetado de páginas frente al análisis de archivos de registro son las siguientes:

Factores económicos

El análisis de los archivos de registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero lo más frecuente es que se proporcione como servicio de terceros. La diferencia económica entre estos dos modelos también puede ser un factor a tener en cuenta para que una empresa decida cuál comprar.

Qué solución es más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad observada en los sitios web, la profundidad y el tipo de información buscada y la cantidad de sitios web distintos que necesitan estadísticas.

Independientemente de la solución del proveedor o del método de recopilación de datos empleado, también se debe incluir el costo del análisis e interpretación de los visitantes web. Es decir, el costo de convertir los datos sin procesar en información procesable. Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio . Por ejemplo, ¿qué aumento de ingresos o ahorro de costos se puede obtener al analizar los datos de los visitantes web?

Métodos híbridos

Algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Al utilizar un método híbrido, su objetivo es producir estadísticas más precisas que cada método por separado. [14]

Geolocalización de visitantes

Con la geolocalización por IP , es posible rastrear la ubicación de los visitantes. Mediante una base de datos o API de geolocalización por IP, se puede geolocalizar a los visitantes a nivel de ciudad, región o país. [15]

La inteligencia IP, o inteligencia del protocolo de Internet (IP), es una tecnología que mapea Internet y clasifica las direcciones IP por parámetros como la ubicación geográfica (país, región, estado, ciudad y código postal), el tipo de conexión, el proveedor de servicios de Internet (ISP), la información del proxy y más. La primera generación de inteligencia IP se denominó tecnología de geosegmentación o geolocalización . Las empresas utilizan esta información para la segmentación de la audiencia en línea en aplicaciones como la publicidad en línea , la segmentación por comportamiento , la localización de contenido (o localización de sitios web ), la gestión de derechos digitales , la personalización , la detección de fraude en línea, la búsqueda localizada, los análisis mejorados, la gestión del tráfico global y la distribución de contenido.

Análisis de clics

Análisis de la ruta de clics con páginas de referencia a la izquierda y flechas y rectángulos que difieren en grosor y extensión para simbolizar la cantidad de movimiento

El análisis de clics , también conocido como Clickstream, es un tipo especial de análisis web que presta especial atención a los clics .

Por lo general, el análisis de clics se centra en el análisis del sitio. Un editor de un sitio web utiliza el análisis de clics para determinar el rendimiento de su sitio en particular, en relación con los lugares donde hacen clic los usuarios del sitio.

Además, el análisis de clics puede realizarse en tiempo real o en tiempo "irreal", según el tipo de información que se busque. Normalmente, los editores de portada de sitios de medios de comunicación con mucho tráfico querrán supervisar sus páginas en tiempo real para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un marco temporal más amplio para ayudarlos a evaluar el rendimiento de los escritores, los elementos de diseño o los anuncios, etc.

Los datos sobre los clics se pueden recopilar de al menos dos formas. Lo ideal es que se "registre" un clic cuando se produce, y este método requiere alguna funcionalidad que recopile información relevante cuando se produce el evento. Como alternativa, se puede suponer que una visita a una página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa visita a la página.

Análisis del ciclo de vida del cliente

El análisis del ciclo de vida del cliente es un enfoque de medición centrado en el visitante. [16] Las visitas a la página, los clics y otros eventos (como llamadas a la API, acceso a servicios de terceros, etc.) están todos vinculados a un visitante individual en lugar de almacenarse como puntos de datos separados. El análisis del ciclo de vida del cliente intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento del visitante y la optimización del sitio web . [17] Las métricas comunes utilizadas en el análisis del ciclo de vida del cliente incluyen el costo de adquisición del cliente (CAC), el valor de vida del cliente (CLV), la tasa de abandono del cliente y las puntuaciones de satisfacción del cliente . [16]

Otros métodos

A veces se utilizan otros métodos de recopilación de datos. El rastreo de paquetes recopila datos rastreando el tráfico de red que pasa entre el servidor web y el mundo exterior. El rastreo de paquetes no implica cambios en las páginas web ni en los servidores web. También es posible integrar análisis web en el propio software del servidor web. [18] Ambos métodos afirman proporcionar datos en tiempo real mejores que otros métodos.

Fuentes comunes de confusión en el análisis web

El problema del hotel

El problema del hotel es generalmente el primer problema con el que se encuentra un usuario de análisis web. El problema es que la suma de los visitantes únicos de cada día de un mes no es la misma que la de los visitantes únicos de ese mes. Para un usuario inexperto, esto parece ser un problema del software de análisis que esté utilizando. De hecho, es una propiedad simple de las definiciones de métricas.

La forma de visualizar la situación es imaginar un hotel. El hotel tiene dos habitaciones (Habitación A y Habitación B).

Como se puede observar en la tabla, el hotel cuenta con dos usuarios únicos cada día durante tres días, por lo que la suma de los totales con respecto a los días es de seis.

Durante el periodo cada habitación ha tenido dos usuarios únicos, por lo que la suma de los totales respecto a las habitaciones es de cuatro.

En realidad, solo tres visitantes han estado en el hotel durante este período. El problema es que una persona que se aloja en una habitación durante dos noches se contabilizará dos veces si se la cuenta una vez cada día, pero solo se contabilizará una vez si se analiza el total del período. Cualquier software de análisis web sumará estos datos correctamente para el período de tiempo elegido, lo que genera el problema cuando un usuario intenta comparar los totales.

Envenenamiento analítico

A medida que Internet ha madurado, la proliferación del tráfico automatizado de bots se ha convertido en un problema cada vez mayor para la fiabilidad de las analíticas web. [ cita requerida ] A medida que los bots recorren Internet, procesan documentos web de forma similar a los usuarios orgánicos y, como resultado, pueden activar de forma incidental el mismo código que utiliza la analítica web para contar el tráfico. En conjunto, esta activación incidental de eventos de analítica web afecta la interpretabilidad de los datos y las inferencias realizadas a partir de esos datos. IPM proporcionó una prueba de concepto de cómo Google Analytics , así como sus competidores, se activan fácilmente mediante estrategias de implementación de bots comunes. [19]

Problemas con las cookies de terceros

Históricamente, los proveedores de soluciones de análisis de etiquetado de páginas han utilizado cookies de terceros enviadas desde el dominio del proveedor en lugar del dominio del sitio web que se está visitando. Las cookies de terceros pueden gestionar visitantes que cruzan varios dominios no relacionados dentro del sitio de la empresa, ya que la cookie siempre es gestionada por los servidores del proveedor.

Sin embargo, las cookies de terceros permiten en principio rastrear a un usuario individual en los sitios de diferentes empresas, lo que permite al proveedor de análisis cotejar la actividad del usuario en los sitios donde proporcionó información personal con su actividad en otros sitios donde pensó que era anónimo. Aunque las empresas de análisis web niegan que lo hagan, otras empresas, como las que suministran anuncios de banner , sí lo han hecho. Por lo tanto, las preocupaciones sobre la privacidad de las cookies han llevado a una notable minoría de usuarios a bloquear o eliminar las cookies de terceros. En 2005, algunos informes mostraron que aproximadamente el 28% de los usuarios de Internet bloqueaban las cookies de terceros y el 22% las eliminaban al menos una vez al mes. [20] La mayoría de los proveedores de soluciones de etiquetado de páginas han pasado a ofrecer al menos la opción de utilizar cookies de origen (cookies asignadas desde el subdominio del cliente).

Otro problema es la eliminación de cookies. Cuando las analíticas web dependen de las cookies para identificar a los visitantes únicos, las estadísticas dependen de una cookie persistente que contenga un ID de visitante único. Cuando los usuarios eliminan las cookies, normalmente eliminan tanto las cookies propias como las de terceros. Si esto se hace entre interacciones con el sitio, el usuario aparecerá como un visitante nuevo en su siguiente punto de interacción. Sin un ID de visitante único y persistente, las conversiones, el análisis del flujo de clics y otras métricas que dependen de las actividades de un visitante único a lo largo del tiempo no pueden ser precisas.

Las cookies se utilizan porque las direcciones IP no siempre son exclusivas de los usuarios y pueden ser compartidas por grandes grupos o servidores proxy. En algunos casos, la dirección IP se combina con el agente de usuario para identificar con mayor precisión a un visitante si no hay cookies disponibles. Sin embargo, esto solo resuelve parcialmente el problema porque a menudo los usuarios detrás de un servidor proxy tienen el mismo agente de usuario. Otros métodos para identificar de forma única a un usuario son técnicamente complicados y limitarían la audiencia rastreable o se considerarían sospechosos. Las cookies alcanzan el mínimo común denominador sin utilizar tecnologías consideradas como software espía y tener las cookies habilitadas/activas genera problemas de seguridad. [21]

Métodos de análisis (medición) seguros

La recopilación de información de terceros está sujeta a las limitaciones de la red y a las medidas de seguridad que se apliquen. Los países, los proveedores de servicios y las redes privadas pueden impedir que los datos de las visitas a sitios web lleguen a terceros. Todos los métodos descritos anteriormente (y algunos otros métodos no mencionados aquí, como el muestreo) tienen el problema central de ser vulnerables a la manipulación (tanto a la inflación como a la deflación). Esto significa que estos métodos son imprecisos e inseguros (en cualquier modelo razonable de seguridad). Esta cuestión se ha abordado en varios artículos [22] [23] [24] [25], pero hasta la fecha las soluciones sugeridas en estos artículos siguen siendo teóricas.

Véase también

Referencias

  1. ^ Comité de Normas de la WAA. "Definiciones de análisis web". Washington DC: Web Analytics Association (2008).
  2. ^ Nielsen, Janne (27 de abril de 2021). "Uso de métodos mixtos para estudiar el uso histórico de balizas web en el seguimiento web". Revista internacional de humanidades digitales . 2 (1–3): 65–88. doi :10.1007/s42803-021-00033-4. ISSN  2524-7832. S2CID  233416836.
  3. ^ Jansen, BJ (2009). Comprensión de las interacciones entre usuarios y sitios web a través de la analítica web. Síntesis de conferencias sobre conceptos, recuperación y servicios de información, 1(1), 1-102.
  4. ^ Sng, Yun Fei (22 de agosto de 2016), "Estudio sobre los factores asociados con las tasas de rebote en los sitios web de productos de consumo", Business Analytics , WORLD SCIENTIFIC, págs. 526-546, doi : 10.1142/9789813149311_0019, ISBN 978-981-314-929-8, consultado el 11 de agosto de 2023
  5. ^ Menasalvas, Ernestina; Millán, Socorro; Peña, José M.; Hadjimichael, Michael; Marbán, Oscar (julio de 2004). "Subsesiones: Un enfoque granular para el análisis de la ruta de clics: Análisis de la ruta de clics". Revista Internacional de Sistemas Inteligentes . 19 (7): 619–637. doi :10.1002/int.20014.
  6. ^ Chaffey, Dave; Patron, Mark (1 de julio de 2012). "De la analítica web a la optimización del marketing digital: aumentar el valor comercial de la analítica digital". Revista de prácticas de marketing directo, de datos y digital . 14 (1): 30–45. doi : 10.1057/dddmp.2012.20 . ISSN  1746-0174.
  7. ^ "Cómo se define una sesión web en Universal Analytics - Ayuda de Analytics". support.google.com . Consultado el 11 de agosto de 2023 .
  8. ^ Zheng, G. y Peltsverger S. (2015) Descripción general de la analítica web, en el libro: Enciclopedia de ciencia y tecnología de la información, tercera edición, editor: IGI Global, editores: Mehdi Khosrow-Pour
  9. ^ Fuentes de datos de tráfico web y comparación de proveedores por Brian Clifton y Omega Digital Media Ltd
  10. ^ Gestión de marketing: un proceso de creación de valor (segunda edición) por Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.
  11. ^ Aumentar la precisión para el crecimiento de los negocios en línea: un informe técnico sobre la precisión de los análisis web
  12. ^ "Etiquetado de páginas frente a análisis de registros: un informe ejecutivo" (PDF) . aserradero. 2008.
  13. ^ "Revisiting log file analysis versus page tagging": artículo del blog de Web Analytics de la Universidad McGill (CMIS 530) "Revisiting Log File Analysis versus Page tagging". Archivado desde el original el 6 de julio de 2011 . Consultado el 26 de febrero de 2010 .
  14. ^ "Etiquetado de páginas (cookies) frente a análisis de registros". Logaholic Web Analytics . 2018-04-25 . Consultado el 2023-07-21 .
  15. ^ IPInfoDB (10 de julio de 2009). «Base de datos de geolocalización de IP». IPInfoDB . Consultado el 19 de julio de 2009 .
  16. ^ ab Kitchens, Brent; Dobolyi, David; Li, Jingjing; Abbasi, Ahmed (3 de abril de 2018). "Análisis avanzado de clientes: valor estratégico a través de la integración de big data orientado a las relaciones". Revista de sistemas de información de gestión . 35 (2): 540–574. doi :10.1080/07421222.2018.1451957. ISSN  0742-1222. S2CID  49681142.
  17. ^ Önder, Irem; Berbekova, Adiyukh (10 de agosto de 2022). "Análisis web: ¿algo más que una evaluación del rendimiento de un sitio web?". Revista Internacional de Turismo de Ciudades . 8 (3): 603–615. doi :10.1108/IJTC-03-2021-0039. ISSN  2056-5607.
  18. ^ Hu, Xiaohua; Cercone, Nick (1 de julio de 2004). "Un marco de procesamiento analítico en línea/almacén de datos para la minería de datos de uso web y la generación de informes de inteligencia empresarial". Revista internacional de sistemas inteligentes . 19 (7): 585–606. doi : 10.1002/int.v19:7 .
  19. ^ "Envenenamiento por análisis: una breve reseña - IPM Corporation". 5 de diciembre de 2020. Consultado el 29 de julio de 2022 .
  20. ^ McGann, Rob (14 de marzo de 2005). «Estudio: los consumidores eliminan las cookies a un ritmo sorprendente» . Consultado el 3 de abril de 2014 .
  21. ^ "Inicio Noticias Acceso a la Guía Herramientas Educación Compras Internet Cookies: ¿software espía o tecnología neutral?". CNET . 2 de febrero de 2005 . Consultado el 24 de abril de 2017 .
  22. ^ Naor, M.; Pinkas, B. (1998). "Medición segura y eficiente". Avances en criptología – EUROCRYPT'98 . Apuntes de clase en informática. Vol. 1403. pág. 576. doi :10.1007/BFb0054155. ISBN 978-3-540-64518-4.
  23. ^ Naor, M.; Pinkas, B. (1998). "Contabilidad y auditoría seguras en la Web". Redes informáticas y sistemas RDSI . 30 (1–7): 541–550. doi :10.1016/S0169-7552(98)00116-0.
  24. ^ Franklin, MK ; Malkhi, D. (1997). "Medición auditable con seguridad liviana" . Criptografía financiera . Apuntes de clase en informática. Vol. 1318. págs. 151. CiteSeerX 10.1.1.46.7786 . doi :10.1007/3-540-63594-7_75. ISBN  978-3-540-63594-9.
  25. ^ Johnson, R.; Staddon, J. (2007). "Medición web segura frente a la deflación". Revista internacional de seguridad informática e informática . 1 : 39. CiteSeerX 10.1.1.116.3451 . doi :10.1504/IJICS.2007.012244. 

Bibliografía