El spam en buscadores (también conocido como spam en buscadores , envenenamiento de buscadores , optimización de buscadores de sombrero negro , spam de búsqueda o spam web ) [1] es la manipulación deliberada de los índices de los buscadores . Implica una serie de métodos, como la construcción de enlaces y la repetición de frases relacionadas y/o no relacionadas, para manipular la relevancia o prominencia de los recursos indexados de una manera incompatible con el propósito del sistema de indexación. [2] [3]
El spamdexing podría considerarse parte de la optimización de motores de búsqueda , [4] aunque existen muchos métodos de SEO que mejoran la calidad y la apariencia del contenido de los sitios web y ofrecen contenido útil a muchos usuarios. [5]
Los motores de búsqueda utilizan una variedad de algoritmos para determinar la clasificación de relevancia . Algunos de estos incluyen determinar si el término de búsqueda aparece en el cuerpo del texto o en la URL de una página web . Muchos motores de búsqueda comprueban los casos de spamdexing y eliminarán las páginas sospechosas de sus índices. Además, los operadores de motores de búsqueda pueden bloquear rápidamente la lista de resultados de sitios web completos que utilizan spamdexing, tal vez en respuesta a las quejas de los usuarios sobre coincidencias falsas. El auge del spamdexing a mediados de la década de 1990 hizo que los principales motores de búsqueda de la época fueran menos útiles. El uso de métodos poco éticos para hacer que los sitios web ocupen una posición más alta en los resultados de los motores de búsqueda de lo que obtendrían de otra manera se conoce comúnmente en la industria de SEO (optimización de motores de búsqueda) como "SEO de sombrero negro". [6] Estos métodos están más centrados en romper las reglas y pautas de promoción de los motores de búsqueda. Además de esto, los perpetradores corren el riesgo de que sus sitios web sean severamente penalizados por los algoritmos de clasificación de resultados de búsqueda Google Panda y Google Penguin . [7]
Las técnicas comunes de spamdexing se pueden clasificar en dos grandes clases: spam de contenido [5] ( spam de términos ) y spam de enlaces . [3]
La primera referencia conocida [2] al término spamdexing es de Eric Convey en su artículo "La pornografía vuelve a aparecer en la Web", The Boston Herald , 22 de mayo de 1996, donde dijo:
El problema surge cuando los operadores de sitios web cargan sus páginas web con cientos de términos extraños para que los motores de búsqueda los incluyan entre las direcciones legítimas. El proceso se denomina "spamdexing", una combinación de spamming (el término de Internet que designa el envío de información no solicitada a los usuarios) e " indexación ". [2]
El relleno de palabras clave se ha utilizado en el pasado para obtener las mejores clasificaciones en los motores de búsqueda y visibilidad para frases específicas. Este método está obsoleto y no agrega ningún valor a las clasificaciones actuales. En particular, Google ya no otorga buenas clasificaciones a las páginas que emplean esta técnica.
La ocultación de texto al visitante se realiza de muchas formas diferentes. El color del texto para que se mezcle con el fondo, el posicionamiento CSS z-index para colocar el texto debajo de una imagen (y, por lo tanto, fuera de la vista del visitante) y el posicionamiento CSS absoluto para que el texto se ubique lejos del centro de la página son todas técnicas comunes. En 2005, los principales motores de búsqueda detectaban fácilmente muchas técnicas de texto invisible.
Las etiquetas "Noscript" son otra forma de colocar contenido oculto dentro de una página. Si bien son un método de optimización válido para mostrar una representación alternativa de contenido con script, pueden ser objeto de abuso, ya que los motores de búsqueda pueden indexar contenido que es invisible para la mayoría de los visitantes.
A veces, el texto insertado incluye palabras que se buscan con frecuencia (como "sexo"), incluso si esos términos tienen poca conexión con el contenido de una página, con el fin de atraer tráfico a páginas con publicidad.
En el pasado, el relleno de palabras clave se consideraba una táctica de sombrero blanco o de sombrero negro , según el contexto de la técnica y la opinión de la persona que la juzgaba. Si bien se empleaba una gran cantidad de relleno de palabras clave para facilitar la indexación de spam, lo que es de poco beneficio para el usuario, el relleno de palabras clave en determinadas circunstancias no tenía como objetivo distorsionar los resultados de manera engañosa. El hecho de que el término tenga una connotación peyorativa o neutra depende de si la práctica se utiliza para contaminar los resultados con páginas de poca relevancia o para dirigir el tráfico a una página de relevancia que, de lo contrario, habría perdido relevancia debido a la incapacidad del motor de búsqueda para interpretar y comprender ideas relacionadas. Esto ya no es así. Los motores de búsqueda ahora emplean técnicas de palabras clave relacionadas con temas para interpretar la intención del contenido de una página.
Estas técnicas implican alterar la visión lógica que tiene un motor de búsqueda sobre el contenido de la página. Todas ellas apuntan a variantes del modelo de espacio vectorial para la recuperación de información en colecciones de texto.
El relleno de palabras clave es una técnica de optimización de motores de búsqueda (SEO) en la que se cargan palabras clave en las metaetiquetas de una página web , el contenido visible o el texto de anclaje de un vínculo de retroceso en un intento de obtener una ventaja de clasificación injusta en los motores de búsqueda . El relleno de palabras clave puede provocar que un sitio web sea prohibido o penalizado temporal o permanentemente en los principales motores de búsqueda. [8] La repetición de palabras en las metaetiquetas puede explicar por qué muchos motores de búsqueda ya no utilizan estas etiquetas. Hoy en día, los motores de búsqueda se centran más en el contenido que es único, completo, relevante y útil, lo que en general mejora la calidad, lo que hace que el relleno de palabras clave sea inútil, pero muchos webmasters todavía lo practican. [ cita requerida ]
Muchos motores de búsqueda importantes han implementado algoritmos que reconocen el relleno de palabras clave y reducen o eliminan cualquier ventaja de búsqueda injusta que la táctica pueda haber tenido como objetivo obtener y, a menudo, también penalizan, degradan o eliminan de sus índices a los sitios web que implementan el relleno de palabras clave.
Los cambios y algoritmos específicamente diseñados para penalizar o prohibir los sitios que utilizan relleno de palabras clave incluyen la actualización de Google Florida (noviembre de 2003), Google Panda (febrero de 2011) [9] , Google Hummingbird (agosto de 2013) [10] y la actualización de Bing de septiembre de 2014. [11]
Los titulares de los sitios de noticias en línea están cada vez más repletos de palabras clave que identifican la noticia y que son fáciles de buscar. Los periodistas y editores tradicionales desaprueban esta práctica, pero es eficaz para optimizar las noticias para las búsquedas. [12]
El texto oculto no relacionado se disfraza haciéndolo del mismo color que el fondo, utilizando un tamaño de fuente pequeño u ocultándolo dentro del código HTML como secciones "sin marco", atributos alt , DIV de tamaño cero y secciones "sin script". Las personas que filtran manualmente los sitios web marcados en rojo para una empresa de motores de búsqueda pueden bloquear temporal o permanentemente un sitio web completo por tener texto invisible en algunas de sus páginas. Sin embargo, el texto oculto no siempre es spamdexing: también se puede utilizar para mejorar la accesibilidad . [13]
Esto implica repetir palabras clave en las metaetiquetas y utilizar metaetiquetas que no están relacionadas con el contenido del sitio. Esta táctica ha resultado ineficaz. Google declaró que no utiliza la metaetiqueta de palabras clave en su ranking de búsqueda en línea en septiembre de 2009. [14]
Las páginas de acceso son páginas web de baja calidad creadas con muy poco contenido, que en su lugar están repletas de palabras clave y frases muy similares. Están diseñadas para posicionarse en los primeros puestos de los resultados de búsqueda, pero no sirven para nada a los visitantes que buscan información. Una página de acceso generalmente tendrá un mensaje que diga "haga clic aquí para ingresar" en la página; el reenvío automático también se puede utilizar para este propósito. En 2006, Google expulsó al fabricante de vehículos BMW por usar "páginas de acceso" al sitio alemán de la compañía, BMW.de. [15]
Los sitios web de scraping se crean utilizando varios programas diseñados para "raspar" páginas de resultados de motores de búsqueda u otras fuentes de contenido y crear "contenido" para un sitio web. [ cita requerida ] La presentación específica del contenido en estos sitios es única, pero es simplemente una amalgama de contenido tomado de otras fuentes, a menudo sin permiso. Dichos sitios web generalmente están llenos de publicidad (como anuncios de pago por clic ) o redirigen al usuario a otros sitios. Incluso es posible que los sitios web de scraping superen a los sitios web originales en cuanto a su propia información y nombres de organizaciones.
La reescritura de artículos implica reescribir artículos existentes, en lugar de simplemente copiar contenido de otros sitios, para evitar las sanciones impuestas por los motores de búsqueda por contenido duplicado . Este proceso lo llevan a cabo escritores contratados [ cita requerida ] o se automatiza mediante una base de datos de tesauros o una red neuronal artificial .
De manera similar al article spinner , algunos sitios utilizan la traducción automática para traducir su contenido a varios idiomas, sin edición humana, lo que genera textos ininteligibles que, no obstante, continúan siendo indexados por los motores de búsqueda, atrayendo así tráfico.
El spam de enlaces se define como enlaces entre páginas que están presentes por razones distintas a su mérito. [16] El spam de enlaces aprovecha los algoritmos de clasificación basados en enlaces, que otorgan a los sitios web clasificaciones más altas cuanto más enlaces de otros sitios web de alta clasificación se incluyen con ellos. Estas técnicas también tienen como objetivo influir en otras técnicas de clasificación basadas en enlaces, como el algoritmo HITS . [ cita requerida ]
Las granjas de enlaces son redes muy unidas de sitios web que se enlazan entre sí con el único fin de explotar los algoritmos de clasificación de los motores de búsqueda. También se las conoce jocosamente como sociedades de admiración mutua . [17] El uso de granjas de enlaces se ha reducido considerablemente con el lanzamiento de la primera actualización Panda de Google en febrero de 2011, que introdujo mejoras significativas en su algoritmo de detección de spam.
Las redes de blogs (PBN) son un grupo de sitios web de autoridad que se utilizan como fuente de enlaces contextuales que apuntan al sitio web principal del propietario para lograr una clasificación más alta en los motores de búsqueda. Los propietarios de sitios web PBN utilizan dominios vencidos o dominios de subasta que tienen enlaces de retroceso de sitios web de alta autoridad. Google ha atacado y penalizado a los usuarios de PBN en varias ocasiones con varias campañas de desindexación masiva desde 2014. [18]
La colocación de hipervínculos en lugares donde los visitantes no los vean se utiliza para aumentar la popularidad de los enlaces . El texto de un enlace resaltado puede ayudar a que una página web tenga una clasificación más alta por coincidir con esa frase.
Un ataque Sybil es la creación de múltiples identidades con intenciones maliciosas, llamado así por la famosa paciente con trastorno de identidad disociativo y el libro sobre ella que comparte su nombre, " Sybil ". [19] [20] Un spammer puede crear múltiples sitios web en diferentes nombres de dominio que se vinculan entre sí, como blogs falsos (conocidos como blogs spam ).
Los blogs spam son blogs creados únicamente con fines de promoción comercial y para transmitir autoridad de enlaces a sitios de destino. A menudo, estos "splogs" están diseñados de manera engañosa para dar la impresión de ser un sitio web legítimo, pero, tras una inspección minuciosa, suelen estar escritos con software de manipulación de enlaces o estar muy mal escritos con un contenido apenas legible. Son similares en naturaleza a las granjas de enlaces. [21] [22]
El spam de blogs invitados es el proceso de colocar blogs invitados en sitios web con el único propósito de obtener un enlace a otro sitio web o sitios web. Desafortunadamente, estos suelen confundirse con formas legítimas de blogs invitados con otros motivos que no sean colocar enlaces. Esta técnica se hizo famosa gracias a Matt Cutts , quien declaró públicamente la "guerra" contra esta forma de spam de enlaces. [23]
Algunos spammers de enlaces utilizan software de rastreo de dominios vencidos o monitorean los registros DNS de los dominios que expirarán pronto, luego los compran cuando expiran y reemplazan las páginas con enlaces a sus páginas. Sin embargo, es posible, aunque no está confirmado, que Google restablezca los datos de enlaces de los dominios vencidos. [ cita requerida ] Para mantener todos los datos de clasificación de Google anteriores para el dominio, es recomendable que un comprador adquiera el dominio antes de que se "elimine".
Algunas de estas técnicas pueden aplicarse para crear una bomba de Google , es decir, para cooperar con otros usuarios para mejorar la clasificación de una página particular para una consulta particular.
Los sitios web que pueden ser editados por los usuarios pueden ser utilizados por los spamdexers para insertar enlaces a sitios spam si no se toman las medidas antispam adecuadas.
Los robots de spam automatizados pueden hacer que la parte editable de un sitio web quede inutilizable rápidamente. Los programadores han desarrollado una variedad de técnicas de prevención de spam automatizadas para bloquear o al menos ralentizar a los robots de spam.
El spam en blogs consiste en colocar o solicitar enlaces de forma aleatoria en otros sitios, colocando una palabra clave deseada en el texto del hipervínculo del enlace entrante. Los libros de visitas, foros, blogs y cualquier sitio que acepte comentarios de visitantes son objetivos particulares y, a menudo, son víctimas de spam involuntario, en el que un software automatizado crea publicaciones sin sentido con enlaces que, por lo general, son irrelevantes y no deseados.
El spam de comentarios es una forma de spam de enlaces que ha surgido en páginas web que permiten la edición dinámica de usuarios, como wikis , blogs y libros de visitas . Puede ser problemático porque se pueden escribir agentes que seleccionen automáticamente de forma aleatoria una página web editada por el usuario, como un artículo de Wikipedia, y agreguen enlaces de spam. [24]
El spam wiki es cuando un spammer utiliza la capacidad de edición abierta de los sistemas wiki para colocar enlaces desde el sitio wiki al sitio de spam.
El spam de referencia se produce cuando un autor o facilitador de spam accede a una página web (el referente ), siguiendo un enlace desde otra página web (el referente ), de modo que el navegador de Internet de la persona que realiza el referido le proporciona la dirección del referente. Algunos sitios web tienen un registro de referentes que muestra qué páginas enlazan a ese sitio. Si un robot accede aleatoriamente a muchos sitios suficientes veces, con un mensaje o una dirección específica como referente, ese mensaje o dirección de Internet aparece en el registro de referentes de aquellos sitios que tienen registros de referentes. Dado que algunos motores de búsqueda web basan la importancia de los sitios en la cantidad de sitios diferentes que enlazan a ellos, el spam de registros de referentes puede aumentar las clasificaciones de los sitios del spammer en los motores de búsqueda. Además, los administradores de sitios que notan las entradas del registro de referentes en sus registros pueden seguir el enlace de regreso a la página de referencia del spammer.
Debido a la gran cantidad de spam publicado en páginas web editables por el usuario, Google propuso una etiqueta "nofollow" que podría insertarse en los enlaces. Un motor de búsqueda basado en enlaces, como el sistema PageRank de Google , no utilizará el enlace para aumentar la puntuación del sitio web vinculado si el enlace lleva una etiqueta nofollow. Esto garantiza que el spam de enlaces a sitios web editables por el usuario no aumentará la clasificación de los sitios en los motores de búsqueda. Nofollow es utilizado por varios sitios web importantes, incluidos Wordpress , Blogger y Wikipedia . [ cita requerida ]
Un sitio espejo es el alojamiento de varios sitios web con contenido conceptualmente similar pero que utilizan URL diferentes . Algunos motores de búsqueda otorgan una clasificación más alta a los resultados en los que la palabra clave buscada aparece en la URL.
La redirección de URL es el traslado del usuario a otra página sin su intervención, por ejemplo , mediante etiquetas de actualización META , Flash , JavaScript , Java o redirecciones del lado del servidor . Sin embargo, la redirección 301 o permanente no se considera un comportamiento malicioso.
El encubrimiento se refiere a cualquiera de los diversos medios para servir una página a la araña del motor de búsqueda que es diferente de la que ven los usuarios humanos. Puede ser un intento de engañar a los motores de búsqueda con respecto al contenido de un sitio web en particular. Sin embargo, el encubrimiento también se puede utilizar para aumentar éticamente la accesibilidad de un sitio a los usuarios con discapacidades o proporcionar a los usuarios humanos contenido que los motores de búsqueda no pueden procesar o analizar. También se utiliza para entregar contenido en función de la ubicación de un usuario; Google mismo utiliza la entrega de IP , una forma de encubrimiento, para entregar resultados. Otra forma de encubrimiento es el intercambio de código , es decir , optimizar una página para la clasificación superior y luego intercambiar otra página en su lugar una vez que se logra la clasificación superior. Google se refiere a este tipo de redirecciones como redirecciones furtivas . [25]
Las páginas indexadas como spam a veces son eliminadas de los resultados de búsqueda por el motor de búsqueda.
Los usuarios pueden utilizar operadores de búsqueda para filtrar. En el caso de Google, una palabra clave precedida por "-" (menos) omitirá los sitios que contengan la palabra clave en sus páginas o en la URL de las páginas del resultado de la búsqueda. Por ejemplo, la búsqueda "-<sitio no deseado>" eliminará los sitios que contengan la palabra "<sitio no deseado>" en sus páginas y las páginas cuya URL contenga "<sitio no deseado>".
Los usuarios también pueden utilizar la extensión de Google Chrome "Personal Blocklist (by Google)", lanzada por Google en 2011 como parte de las contramedidas contra la agricultura de contenido . [26] A través de la extensión, los usuarios pueden bloquear una página específica o un conjunto de páginas para que no aparezcan en sus resultados de búsqueda. A partir de 2021, la extensión original parece haber sido eliminada, aunque se pueden utilizar extensiones con un funcionamiento similar.
Entre las posibles soluciones para superar el envenenamiento por redireccionamiento de búsquedas que redirige a farmacias ilegales de Internet se encuentran la notificación a los operadores de dominios legítimos vulnerables. Además, la evaluación manual de SERP, los algoritmos basados en enlaces y contenidos publicados previamente, así como los motores de detección y clasificación automáticos hechos a medida, pueden utilizarse como puntos de referencia para la identificación eficaz de campañas de estafas farmacéuticas. [27]