stringtranslate.com

Analista de la red

El análisis web es la medición, recopilación , análisis y generación de informes de datos web para comprender y optimizar el uso de la web . [1] La analítica web no es sólo un proceso para medir el tráfico web , sino que puede utilizarse como herramienta para la investigación empresarial y de mercado y para evaluar y mejorar la eficacia del sitio web . Las aplicaciones de análisis web también pueden ayudar a las empresas a medir los resultados de las campañas publicitarias tradicionales impresas o televisivas . Se puede utilizar para estimar cómo cambia el tráfico a un sitio web después del lanzamiento de una nueva campaña publicitaria. La analítica web proporciona información sobre el número de visitantes de un sitio web y el número de páginas vistas, o crea perfiles de comportamiento de los usuarios. [2] Ayuda a medir el tráfico y las tendencias de popularidad, lo cual es útil para la investigación de mercado.

Pasos básicos del proceso de analítica web

Pasos básicos del proceso de análisis web

La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, [3] que son:

Otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos:

El objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumenten o maximicen el efecto de un resultado de interés probado estadísticamente.

Cada etapa impacta o puede impactar (es decir, impulsa) la etapa que la precede o la sigue. Entonces, a veces los datos que están disponibles para su recopilación impactan la estrategia en línea. Otras veces, la estrategia online afecta a los datos recopilados.

Categorías de analítica web

Hay al menos dos categorías de análisis web, análisis web fuera del sitio y dentro del sitio .

En el pasado, la analítica web se utilizaba para referirse a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto borroso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías. Muchos proveedores diferentes ofrecen software y servicios de análisis web en el sitio . Hay dos formas técnicas principales de recopilar los datos. El primer método tradicional, el análisis de archivos de registro del servidor , lee los archivos de registro en los que el servidor web registra las solicitudes de archivos realizadas por los navegadores. El segundo método, el etiquetado de páginas , utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor dedicado a análisis de terceros, cada vez que un navegador web representa una página web o, si se desea, cuando se hace un clic con el mouse. Ambos recopilan datos que pueden procesarse para producir informes de tráfico web.

Analítica web in situ

No existen definiciones acordadas globalmente dentro de la analítica web, ya que los organismos de la industria han estado tratando de acordar definiciones que sean útiles y definitivas durante algún tiempo, es decir, las métricas en herramientas y productos de diferentes compañías pueden tener diferentes formas de medir, contar, como resultado, un mismo nombre de métrica puede representar diferentes significados de los datos. Los principales organismos que han contribuido en esta área han sido la IAB (Interactive Advertising Bureau), JICWEBS (The Joint Industry Committee for Web Standards in the UK and Ireland) y la DAA (Digital Analytics Association), formalmente conocida como WAA. (Asociación de Análisis Web, EE. UU.). Sin embargo, muchos términos se utilizan de manera consistente de una herramienta de análisis importante a otra, por lo que la siguiente lista, basada en esas convenciones, puede ser un punto de partida útil:

Análisis web externo

El análisis web externo se basa en el análisis de datos abiertos, la exploración de redes sociales y la participación en las propiedades web. Por lo general, se utiliza para comprender cómo comercializar un sitio identificando las palabras clave etiquetadas en este sitio, ya sea desde las redes sociales o desde otros sitios web.

Fuentes de datos de análisis web

El objetivo fundamental de la analítica web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos provienen principalmente de cuatro fuentes: [8]

  1. Datos de solicitud HTTP directa : provienen directamente de mensajes de solicitud HTTP (encabezados de solicitud HTTP).
  2. Datos generados por el servidor y a nivel de red asociados con solicitudes HTTP: no forman parte de una solicitud HTTP, pero son necesarios para que la solicitud se transmita correctamente; por ejemplo, la dirección IP de un solicitante.
  3. Datos a nivel de aplicación enviados con solicitudes HTTP: generados y procesados ​​por programas a nivel de aplicación (como JavaScript , PHP y ASP.Net ), incluidas sesiones y referencias. Por lo general, estos se capturan mediante registros internos en lugar de servicios públicos de análisis web.
  4. Datos externos: se pueden combinar con datos del sitio para ayudar a aumentar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web. Por ejemplo, las direcciones IP suelen estar asociadas con regiones geográficas y proveedores de servicios de Internet, tasas de apertura y clics de correo electrónico , datos de campañas de correo directo, ventas, historial de clientes potenciales u otros tipos de datos según sea necesario.

Análisis de archivos de registro del servidor web

Los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se descubrió que un programa podía leer estos archivos de registro para proporcionar datos sobre la popularidad del sitio web. Así surgió el software de análisis de registros web .

A principios de la década de 1990, las estadísticas de los sitios web consistían principalmente en contar el número de solicitudes (o visitas ) de los clientes realizadas al servidor web. Al principio, este era un método razonable, ya que cada sitio web a menudo constaba de un único archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban varios archivos HTML, este recuento se volvió menos útil. IPRO lanzó el primer analizador de registros comercial real en 1994. [9]

A mediados de la década de 1990 se introdujeron dos unidades de medida para medir con mayor precisión la cantidad de actividad humana en los servidores web. Estas fueron páginas vistas y visitas (o sesiones ). Una vista de página se definió como una solicitud realizada al servidor web para una página, a diferencia de un gráfico, mientras que una visita se definió como una secuencia de solicitudes de un cliente identificado de forma única que expiró después de una cierta cantidad de inactividad, generalmente 30 minutos. .

La aparición de robots y arañas de motores de búsqueda a finales de la década de 1990, junto con servidores proxy web y direcciones IP asignadas dinámicamente para grandes empresas e ISP , hicieron más difícil identificar visitantes humanos únicos a un sitio web. Los analizadores de registros respondieron rastreando las visitas de las cookies e ignorando las solicitudes de arañas conocidas. [ cita necesaria ]

El uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará de la memoria caché del navegador, por lo que el servidor web no recibirá ninguna solicitud. Esto significa que se pierde el camino de la persona a través del sitio. El almacenamiento en caché se puede eliminar configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores. [10]

Etiquetado de página

Las preocupaciones sobre la precisión del análisis de los archivos de registro en presencia de almacenamiento en caché y el deseo de poder realizar análisis web como un servicio subcontratado llevaron al segundo método de recopilación de datos, el etiquetado de páginas o " balizas web ".

A mediados de la década de 1990, era común ver contadores web : eran imágenes incluidas en una página web que mostraban el número de veces que se había solicitado la imagen, que era una estimación del número de visitas a esa página. A finales de la década de 1990, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible y, mediante el uso de JavaScript, pasar junto con la imagen solicitar cierta información sobre la página y el visitante. Esta información luego puede ser procesada de forma remota por una empresa de análisis web y generar estadísticas extensas.

El servicio de analítica web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarle de forma única durante su visita y en visitas posteriores. Las tasas de aceptación de cookies varían significativamente entre sitios web y pueden afectar la calidad de los datos recopilados e informados.

La recopilación de datos del sitio web utilizando un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda DNS adicional por parte de la computadora del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, los retrasos en la realización de búsquedas de DNS exitosas o fallidas pueden provocar que no se recopilen datos.

Con la creciente popularidad de las soluciones basadas en Ajax , una alternativa al uso de una imagen invisible es implementar una llamada al servidor desde la página renderizada. En este caso, cuando la página se muestra en el navegador web, un fragmento de código JavaScript devolvería la llamada al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web.

Análisis de archivos de registro frente a etiquetado de páginas

Tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que deseen realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Entonces surge la pregunta de qué método debería elegir una empresa. Hay ventajas y desventajas para cada enfoque. [11] [12]

Ventajas del análisis de archivos de registro

Las principales ventajas del análisis de archivos de registro sobre el etiquetado de páginas son las siguientes:

Ventajas del etiquetado de páginas

Las principales ventajas del etiquetado de páginas sobre el análisis de archivos de registro son las siguientes:

Factores económicos

El análisis de los archivos de registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero normalmente se proporciona como un servicio de terceros. La diferencia económica entre estos dos modelos también puede ser una consideración para que una empresa decida cuál comprar.

La solución más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad observada en los sitios web, la profundidad y el tipo de información buscada y la cantidad de sitios web distintos que necesitan estadísticas.

Independientemente de la solución del proveedor o del método de recopilación de datos empleado, también se debe incluir el costo del análisis e interpretación de los visitantes de la web. Es decir, el costo de convertir datos sin procesar en información procesable. Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio . Por ejemplo, ¿qué aumento de ingresos o ahorro de costes se puede obtener analizando los datos de los visitantes de la web?

Métodos híbridos

Algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Al utilizar un método híbrido, su objetivo es producir estadísticas más precisas que cualquiera de los métodos por separado. [14]

Geolocalización de visitantes

Con la geolocalización IP , es posible rastrear la ubicación de los visitantes. Utilizando una base de datos de geolocalización de IP o API, los visitantes pueden ser geolocalizados a nivel de ciudad, región o país. [15]

IP Intelligence, o Inteligencia de Protocolo de Internet (IP), es una tecnología que mapea Internet y clasifica las direcciones IP por parámetros como ubicación geográfica (país, región, estado, ciudad y código postal), tipo de conexión, proveedor de servicios de Internet (ISP), información de proxy y más. La primera generación de IP Intelligence se denominó tecnología de geotargeting o geolocalización . Las empresas utilizan esta información para segmentar la audiencia en línea en aplicaciones como publicidad en línea , segmentación por comportamiento , localización de contenido (o localización de sitios web ), gestión de derechos digitales , personalización , detección de fraude en línea, búsqueda localizada, análisis mejorado, gestión del tráfico global y contenido. distribución.

Análisis de clics

Análisis de ruta de clic con páginas de referencia a la izquierda y flechas y rectángulos que difieren en grosor y extensión para simbolizar la cantidad de movimiento.

La analítica de clics , también conocida como Clickstream , es un tipo especial de analítica web que presta especial atención a los clics .

Normalmente, el análisis de clics se centra en el análisis del sitio. Un editor de un sitio web utiliza análisis de clics para determinar el rendimiento de su sitio en particular, con respecto a dónde hacen clic los usuarios del sitio.

Además, el análisis de clics puede realizarse en tiempo real o en tiempo "irreal", según el tipo de información buscada. Normalmente, los editores de portada en sitios de medios de noticias con mucho tráfico querrán monitorear sus páginas en tiempo real para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un período de tiempo más amplio para ayudarlos a evaluar el desempeño de los escritores, los elementos de diseño o los anuncios, etc.

Los datos sobre los clics se pueden recopilar al menos de dos maneras. Idealmente, un clic se "registra" cuando ocurre, y este método requiere alguna funcionalidad que recoja información relevante cuando ocurre el evento. Alternativamente, se puede asumir que la vista de una página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa vista de página.

Análisis del ciclo de vida del cliente

El análisis del ciclo de vida del cliente es un enfoque de medición centrado en los visitantes. [16] Las visitas a páginas, los clics y otros eventos (como llamadas API, acceso a servicios de terceros, etc.) están vinculados a un visitante individual en lugar de almacenarse como puntos de datos separados. El análisis del ciclo de vida del cliente intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento de los visitantes y la optimización del sitio web . [17] Las métricas comunes utilizadas en el análisis del ciclo de vida del cliente incluyen el costo de adquisición del cliente (CAC), el valor de vida del cliente (CLV), la tasa de abandono del cliente y las puntuaciones de satisfacción del cliente . [dieciséis]

Otros metodos

A veces se utilizan otros métodos de recopilación de datos. El rastreo de paquetes recopila datos rastreando el tráfico de red que pasa entre el servidor web y el mundo exterior. La detección de paquetes no implica cambios en las páginas web ni en los servidores web. También es posible integrar análisis web en el propio software del servidor web. [18] Ambos métodos afirman proporcionar mejores datos en tiempo real que otros métodos.

Fuentes comunes de confusión en la analítica web

El problema hotelero

El problema del hotel es generalmente el primer problema que encuentra un usuario de analítica web. El problema es que los visitantes únicos de cada día de un mes no suman el mismo total que los visitantes únicos de ese mes. A un usuario inexperto esto le parece un problema en cualquier software de análisis que esté utilizando. De hecho, es una propiedad simple de las definiciones métricas.

La forma de imaginarse la situación es imaginando un hotel. El hotel dispone de dos habitaciones (Habitación A y Habitación B).

Como muestra la tabla, el hotel tiene dos usuarios únicos cada día durante tres días. La suma de los totales respecto de los días es por tanto seis.

Durante el periodo cada sala ha contado con dos usuarios únicos. La suma de los totales respecto a las habitaciones es por tanto cuatro.

En realidad, durante este período sólo tres visitantes han estado en el hotel. El problema es que a una persona que se queda en una habitación dos noches se le contabilizará dos veces si se le cuenta una vez cada día, pero sólo se le contabilizará una vez si se mira el total del período. Cualquier software de análisis web los sumará correctamente para el período de tiempo elegido, lo que genera problemas cuando un usuario intenta comparar los totales.

Envenenamiento analítico

A medida que Internet ha madurado, la proliferación del tráfico de bots automatizados se ha convertido en un problema cada vez mayor para la confiabilidad de los análisis web. [ cita necesaria ] A medida que los robots atraviesan Internet, muestran documentos web de manera similar a los usuarios orgánicos y, como resultado, pueden activar incidentalmente el mismo código que utilizan los análisis web para contar el tráfico. En conjunto, esta activación incidental de eventos de análisis web afecta la interpretabilidad de los datos y las inferencias realizadas sobre esos datos. IPM proporcionó una prueba de concepto de cómo Google Analytics y sus competidores se activan fácilmente mediante estrategias comunes de implementación de bots. [19]

Problemas con las cookies de terceros

Históricamente, los proveedores de soluciones de análisis de etiquetado de páginas han utilizado cookies de terceros enviadas desde el dominio del proveedor en lugar del dominio del sitio web que se navega. Las cookies de terceros pueden manejar visitantes que cruzan múltiples dominios no relacionados dentro del sitio de la empresa, ya que la cookie siempre es manejada por los servidores del proveedor.

Sin embargo, en principio, las cookies de terceros permiten rastrear a un usuario individual en los sitios de diferentes empresas, lo que permite al proveedor de análisis recopilar la actividad del usuario en sitios donde proporcionó información personal con su actividad en otros sitios donde pensaba que era anónimo. Aunque las empresas de análisis web niegan haberlo hecho, otras empresas, como las que suministran anuncios publicitarios, lo han hecho. Por lo tanto, las preocupaciones sobre la privacidad de las cookies han llevado a una notable minoría de usuarios a bloquear o eliminar las cookies de terceros. En 2005, algunos informes mostraban que alrededor del 28% de los usuarios de Internet bloqueaban las cookies de terceros y el 22% las eliminaban al menos una vez al mes. [20] La mayoría de los proveedores de soluciones de etiquetado de páginas ahora han adoptado medidas para ofrecer al menos la opción de utilizar cookies de origen (cookies asignadas desde el subdominio del cliente).

Otro problema es la eliminación de cookies. Cuando los análisis web dependen de cookies para identificar visitantes únicos, las estadísticas dependen de una cookie persistente para contener una identificación de visitante única. Cuando los usuarios eliminan las cookies, normalmente eliminan tanto las cookies propias como las de terceros. Si esto se hace entre interacciones con el sitio, el usuario aparecerá como visitante por primera vez en su siguiente punto de interacción. Sin una identificación de visitante única y persistente, las conversiones, el análisis del flujo de clics y otras métricas que dependen de las actividades de un visitante único a lo largo del tiempo no pueden ser precisos.

Se utilizan cookies porque las direcciones IP no siempre son exclusivas de los usuarios y pueden ser compartidas por grandes grupos o servidores proxy. En algunos casos, la dirección IP se combina con el agente de usuario para identificar con mayor precisión a un visitante si las cookies no están disponibles. Sin embargo, esto sólo resuelve parcialmente el problema porque a menudo los usuarios detrás de un servidor proxy tienen el mismo agente de usuario. Otros métodos para identificar de forma única a un usuario son técnicamente desafiantes y limitarían la audiencia rastreable o se considerarían sospechosos. Las cookies alcanzan el mínimo común denominador sin utilizar tecnologías consideradas software espía y tener las cookies habilitadas/activas genera problemas de seguridad. [21]

Métodos de análisis (medición) seguros

La recopilación de información de terceros está sujeta a las limitaciones de la red y a la seguridad aplicada. Los países, los proveedores de servicios y las redes privadas pueden evitar que los datos de visitas al sitio lleguen a terceros. Todos los métodos descritos anteriormente (y algunos otros métodos no mencionados aquí, como el muestreo) tienen el problema central de ser vulnerables a la manipulación (tanto inflación como deflación). Esto significa que estos métodos son imprecisos e inseguros (en cualquier modelo de seguridad razonable). Esta cuestión se ha abordado en varios artículos, [22] [23] [24] [25] pero hasta la fecha las soluciones sugeridas en estos artículos siguen siendo teóricas.

Ver también

Referencias

  1. ^ Comité de Normas WAA. "Definiciones de análisis web". Washington DC: Asociación de Análisis Web (2008).
  2. ^ Nielsen, Janne (27 de abril de 2021). "Uso de métodos mixtos para estudiar el uso histórico de balizas web en el seguimiento web". Revista Internacional de Humanidades Digitales . 2 (1–3): 65–88. doi :10.1007/s42803-021-00033-4. ISSN  2524-7832. S2CID  233416836.
  3. ^ Jansen, BJ (2009). Comprender las interacciones usuario-web a través de análisis web. Conferencias de síntesis sobre conceptos, recuperación y servicios de información, 1(1), 1-102.
  4. ^ Sng, Yun Fei (22 de agosto de 2016), "Estudio sobre factores asociados con las tasas de rebote en sitios web de productos de consumo", Business Analytics , WORLD SCIENTIFIC, págs. 526–546, doi :10.1142/9789813149311_0019, ISBN 978-981-314-929-8, recuperado el 11 de agosto de 2023
  5. ^ Menasalvas, Ernestina; Millán, Socorro; Peña, José M.; Hadjimichael, Michael; Marbán, Óscar (julio de 2004). "Subsesiones: un enfoque granular para el análisis de la ruta de clics: análisis de la ruta de clics". Revista Internacional de Sistemas Inteligentes . 19 (7): 619–637. doi :10.1002/int.20014.
  6. ^ Chaffey, Dave; Patrón, Mark (1 de julio de 2012). "De la analítica web a la optimización del marketing digital: incrementar el valor comercial de la analítica digital". Revista de práctica de marketing directo, de datos y digital . 14 (1): 30–45. doi : 10.1057/dddmp.2012.20 . ISSN  1746-0174.
  7. ^ "Cómo se define una sesión web en Universal Analytics - Ayuda de Analytics". soporte.google.com . Consultado el 11 de agosto de 2023 .
  8. ^ Zheng, G. & Peltsverger S. (2015) Descripción general de análisis web, en libro: Enciclopedia de ciencia y tecnología de la información, tercera edición, editor: IGI Global, editores: Mehdi Khosrow-Pour
  9. ^ Fuentes de datos de tráfico web y comparación de proveedores por Brian Clifton y Omega Digital Media Ltd
  10. ^ Gestión de marketing: un proceso de creación de valor (segunda edición) por Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.
  11. ^ Aumento de la precisión para el crecimiento empresarial en línea: documento técnico sobre precisión del análisis web
  12. ^ "Etiquetado de páginas versus análisis de registros: documento técnico ejecutivo" (PDF) . aserradero. 2008.
  13. ^ "Revisión del análisis de archivos de registro versus etiquetado de páginas": artículo del blog de análisis web de la Universidad McGill (CMIS 530) "Revisión del análisis de archivos de registro versus etiquetado de páginas". Archivado desde el original el 6 de julio de 2011 . Consultado el 26 de febrero de 2010 .
  14. ^ "Etiquetado de páginas (cookies) frente a análisis de registros". Análisis web logólico . 2018-04-25 . Consultado el 21 de julio de 2023 .
  15. ^ IPInfoDB (10 de julio de 2009). "Base de datos de geolocalización de IP". IPInfoDB . Consultado el 19 de julio de 2009 .
  16. ^ ab Cocinas, Brent; Dobolyi, David; Li, Jingjing; Abbasi, Ahmed (3 de abril de 2018). "Análisis avanzado de clientes: valor estratégico mediante la integración de Big Data orientado a las relaciones". Revista de sistemas de información de gestión . 35 (2): 540–574. doi :10.1080/07421222.2018.1451957. ISSN  0742-1222. S2CID  49681142.
  17. ^ Más allá, Irem; Berbekova, Adiyukh (10 de agosto de 2022). "Análisis web: ¿más que evaluación del rendimiento de un sitio web?". Revista Internacional de Ciudades Turísticas . 8 (3): 603–615. doi :10.1108/IJTC-03-2021-0039. ISSN  2056-5607.
  18. ^ Hu, Xiaohua; Cercone, Nick (1 de julio de 2004). "Un marco de procesamiento analítico en línea/almacén de datos para informes de inteligencia empresarial y minería de uso web". Revista Internacional de Sistemas Inteligentes . 19 (7): 585–606. doi : 10.1002/int.v19:7 .
  19. ^ "Envenenamiento por análisis: una breve reseña - IPM Corporation". 5 de diciembre de 2020 . Consultado el 29 de julio de 2022 .
  20. ^ McGann, Rob (14 de marzo de 2005). "Estudio: los consumidores eliminan cookies a un ritmo sorprendente" . Consultado el 3 de abril de 2014 .
  21. ^ "Inicio Noticias Acceda a la guía Herramientas Educación Compras Cookies de Internet: ¿software espía o tecnología neutral?". CNET . 2 de febrero de 2005 . Consultado el 24 de abril de 2017 .
  22. ^ Naor, M.; Pinkas, B. (1998). "Medición segura y eficiente". Avances en Criptología – EUROCRYPT'98 . Apuntes de conferencias sobre informática. vol. 1403. pág. 576.doi : 10.1007 /BFb0054155. ISBN 978-3-540-64518-4.
  23. ^ Naor, M.; Pinkas, B. (1998). "Contabilidad y auditoría segura en la Web". Redes Informáticas y Sistemas RDSI . 30 (1–7): 541–550. doi :10.1016/S0169-7552(98)00116-0.
  24. ^ Franklin, MK ; Malkhi, D. (1997). “Medición auditable con seguridad liviana” . Criptografía financiera . Apuntes de conferencias sobre informática. vol. 1318. págs. 151. CiteSeerX 10.1.1.46.7786 . doi :10.1007/3-540-63594-7_75. ISBN  978-3-540-63594-9.
  25. ^ Johnson, R.; Staddon, J. (2007). "Medición web segura contra la deflación". Revista Internacional de Seguridad Informática y de la Información . 1 : 39. CiteSeerX 10.1.1.116.3451 . doi :10.1504/IJICS.2007.012244. 

Bibliografía