El efecto Sandbox (o sandboxing ) es una teoría sobre la forma en que Google clasifica las páginas web en su índice. Es objeto de mucho debate: se ha escrito sobre su existencia [1] [2] desde 2004, [3] pero no se ha confirmado, con varias declaraciones en sentido contrario. [4]
Según la teoría del efecto sandbox, los enlaces que normalmente pueden ser ponderados por el algoritmo de clasificación de Google y que no mejoran la posición de una página web en el índice de Google, podrían estar sujetos a filtrado para evitar su impacto total. Algunas observaciones han sugerido que dos factores importantes que provocan este filtro son la antigüedad activa de un dominio y la competitividad de las palabras clave utilizadas en los enlaces.
La edad activa de un dominio [5] no debe confundirse con la fecha de registro en el registro WHOIS de un dominio , sino que se refiere al momento en que Google indexó por primera vez las páginas del dominio. La competitividad de las palabras clave se refiere a la frecuencia de búsqueda de una palabra en la búsqueda de Google, y la observación sugiere que cuanto mayor sea la frecuencia de búsqueda de una palabra, es más probable que entre en juego el efecto de filtro de zona de pruebas.
Si bien la presencia de Google Sandbox se ha debatido durante mucho tiempo, Google no ha hecho ninguna revelación directa. Sin embargo, como el efecto sandbox casi con certeza se refiere a un conjunto de filtros en juego con fines antispam, es poco probable que Google proporcione detalles al respecto. Sin embargo, en un caso, John Mueller [6] de Google mencionó que "los motores de búsqueda pueden tardar un poco en ponerse al día con su contenido y aprender a tratarlo adecuadamente. Una cosa es tener un sitio web fantástico". Aún así, los motores de búsqueda generalmente necesitan un poco más para poder confirmar eso y clasificar su sitio — su contenido — ". [7] Esto podría entenderse como la causa del efecto sandbox.
Google es consciente desde hace mucho tiempo de que su uso histórico de enlaces como "voto" para clasificar documentos web puede estar sujeto a manipulación y así lo declaró en su documentación original de IPO. A lo largo de los años, Google ha presentado una serie de patentes que buscan calificar o minimizar el impacto de dicha manipulación, que Google denomina "enlaces no deseados".
El spam de enlaces es impulsado principalmente por optimizadores de motores de búsqueda , que intentan manipular la clasificación de las páginas de Google creando muchos enlaces entrantes a un nuevo sitio web desde otros sitios web de su propiedad. Algunos expertos en SEO también afirman que el sandbox solo se aplica a frases de palabras clave amplias o altamente competitivas y puede contrarrestarse apuntando a frases estrechas o las llamadas frases de cola larga. [8]
Google ha estado actualizando su algoritmo desde que lucha contra la manipulación de los resultados de búsqueda orgánicos. Sin embargo, hasta el 10 de mayo de 2012, cuando Google lanzó la actualización de Google Penguin , muchas personas creían erróneamente que los vínculos de retroceso de baja calidad no afectarían negativamente la clasificación de un sitio; Google había estado aplicando este tipo de sanciones basadas en enlaces [9] durante muchos años, pero no hizo público cómo la empresa abordó y resolvió lo que llamaron "enlaces no deseados". Desde entonces, ha habido un reconocimiento mucho más amplio de los peligros del mal SEO y del análisis forense de los vínculos de retroceso para garantizar que no haya vínculos dañinos. Como resultado, el algoritmo también penalizó los productos de Google. Un ejemplo bien conocido es Google Chrome, que fue penalizado por comprar enlaces para mejorar los resultados del navegador web.
Las sanciones generalmente son causadas por vínculos de retroceso manipuladores destinados a favorecer a determinadas empresas en los resultados de búsqueda; Al agregar dichos enlaces, las empresas infringen los términos y condiciones de Google. Cuando Google descubre dichos enlaces, impone sanciones para disuadir a otras empresas de seguir esta práctica y eliminar cualquier beneficio que se haya podido obtener de dichos enlaces. Google también penaliza a quienes participaron en la manipulación y ayudaron a otras empresas enlazándose con ellas. Este tipo de empresas suelen ser directorios de baja calidad que incluyen un enlace al sitio web de una empresa con un texto ancla manipulador a cambio de una tarifa. Google sostiene que dichas páginas no ofrecen ningún valor a Internet y, a menudo, están desindexadas. Estos enlaces suelen denominarse enlaces pagos.
Los enlaces pagos son enlaces que las personas colocan en su sitio por una tarifa, creyendo que esto tendrá un impacto positivo en los resultados de búsqueda. La práctica de los enlaces pagos prevalecía antes de la actualización de Penguin, cuando las empresas creían que podían agregar cualquier tipo de enlaces con impunidad, ya que Google afirmó antes que ignoraban estos enlaces en lugar de penalizar a los sitios web. Para cumplir con los TOS recientes de Google, es imperativo aplicar el atributo nofollow a los enlaces de publicidad paga. Las empresas que compran vínculos de retroceso de sitios de baja calidad reciben sanciones de Google.
Estos son enlaces dejados en los comentarios de artículos que es imposible eliminar, ya que esta práctica se volvió tan generalizada que Google lanzó una función para ayudar a frenar dichas prácticas. La etiqueta nofollow indica a los motores de búsqueda que no confíen en dichos enlaces.
Las redes de blogs son a veces miles de blogs que pretenden parecer desconectados y que enlazan con aquellos dispuestos a pagar por dichos enlaces. Por lo general, Google se ha centrado en las redes de blogs y, una vez que las ha detectado, ha penalizado a miles de sitios que obtuvieron beneficios.
Google ha alentado a las empresas a reformar sus malas prácticas y, en consecuencia, exige que se hagan esfuerzos para eliminar los enlaces manipuladores. Google lanzó la herramienta Disavow el 16 de octubre de 2012 para que las personas pudieran informar que buscaban en Google los enlaces incorrectos que tenían. La herramienta Disavow se lanzó principalmente en respuesta a muchos informes de SEO negativo, donde los competidores atacaban a las empresas con enlaces manipuladores sabiendo muy bien que serían penalizadas. [ cita necesaria ] Ha habido cierta controversia [10] sobre si la herramienta Disavow tiene algún efecto cuando la manipulación ha tenido lugar durante muchos años. Al mismo tiempo, se han presentado algunos estudios de casos anecdóticos [11] que sugieren que la herramienta es eficaz y que se pueden recuperar posiciones anteriores en el ranking.
El SEO negativo comenzó a ocurrir después de la actualización de Penguin, cuando se hizo de conocimiento común que Google aplicaría sanciones por enlaces manipuladores; Prácticas como el SEO negativo han provocado que las empresas supervisen diligentemente sus vínculos de retroceso para asegurarse de que no sean el objetivo de competidores hostiles a través de servicios de SEO negativos. [12] [13]
En EE. UU. y el Reino Unido, los expertos consideran ilegales este tipo de actividades realizadas por competidores que intentan sabotear la clasificación de un sitio web.
También se afirma que existe un efecto de "zona de pruebas inversa", mediante el cual las páginas nuevas con buen contenido, pero sin enlaces entrantes, aumentan temporalmente su clasificación (al igual que los "Nuevos lanzamientos" en una librería se muestran de manera más destacada) para fomentar la construcción orgánica. de la World Wide Web. [4] [25]
David George cuestiona la afirmación de que Google aplica sandboxing a todos los sitios web nuevos, diciendo que la afirmación "no parece estar respaldada por la experiencia". Afirma que creó un nuevo sitio web en octubre de 2004 y lo clasificó entre los 20 primeros resultados de Google para una palabra clave objetivo en un mes. Afirma que "nadie sabe con seguridad si existe el entorno limitado de Google" y comenta que "parece encajar con las observaciones y experimentos de muchos optimizadores de motores de búsqueda". Teoriza que el sandbox "ha introducido algo de histéresis en el sistema para restaurar un poco de cordura en los resultados de Google". [4]
En una entrevista con el sitio web Search Engine Roundtable, se informa que Matt Cutts dijo que algunas cosas en el algoritmo pueden percibirse como una zona de pruebas que no se aplica a todas las industrias. [26] Jaimie Sirovich y Cristian Darie, autores de Professional Search Engine Optimization with PHP , afirman que creen que, si bien Google en realidad no tiene un "sandbox" explícito, el efecto en sí (cualquiera que sea su causa) es real. [25]