Google Penguin es el nombre en clave [1] de una actualización del algoritmo de Google que se anunció por primera vez el 24 de abril de 2012. La actualización tenía como objetivo disminuir la clasificación en los motores de búsqueda de los sitios web que violan las Directrices para webmasters de Google [2] mediante el uso de técnicas de SEM de sombrero gris (Grey Hat SEM ) que implican aumentar artificialmente la clasificación de una página web mediante la manipulación del número de enlaces que apuntan a la página. Estas tácticas se describen comúnmente como esquemas de enlaces. [3] Según John Mueller de Google, [1] a partir de 2013, Google anunció todas las actualizaciones del filtro Penguin al público. [4]
Según las estimaciones de Google, [5] Penguin afectó aproximadamente al 3,1% de las consultas de búsqueda en inglés , alrededor del 3% de las consultas en idiomas como alemán , chino y árabe , y un porcentaje aún mayor de ellas en idiomas "muy spam". El 25 de mayo de 2012, Google presentó otra actualización de Penguin, llamada Penguin 1.1. Esta actualización, según Matt Cutts , exdirector de spam web en Google, se suponía que afectaría a menos de una décima parte del uno por ciento de las búsquedas en inglés. El principio rector de la actualización era penalizar a los sitios web que usaban técnicas de manipulación para lograr altas clasificaciones. Los sitios anteriores a Penguin usaban comúnmente técnicas de construcción de enlaces negativos para obtener una clasificación alta y obtener tráfico. Una vez que se implementó Penguin, significó que el contenido era clave, y aquellos con gran contenido serían reconocidos y aquellos con poco o spam contenido serían penalizados y no recibirían beneficios de clasificación. [6] El propósito según Google era atrapar a los spammers excesivos. Supuestamente, algunos sitios web perdieron clasificaciones de búsqueda en Google para palabras clave específicas durante los lanzamientos de Panda y Penguin. [7] Google menciona específicamente que las páginas de entrada , que solo están diseñadas para atraer tráfico de motores de búsqueda, están en contra de sus pautas para webmasters.
En enero de 2012, se lanzó la llamada Actualización del algoritmo de diseño de página [8] (también conocida como Actualización Top Heavy) [9] , que apuntaba a sitios web con demasiados anuncios o muy poco contenido por encima del pliegue .
Penguin 3 se lanzó el 5 de octubre de 2012 y afectó al 0,3 % de las consultas. [10] Penguin 4 (también conocido como Penguin 2.0) se lanzó el 22 de mayo de 2013 y afectó al 2,3 % de las consultas. [11] Penguin 5 (también conocido como Penguin 2.1) [12] se lanzó el 4 de octubre de 2013, afectó a alrededor del 1 % de las consultas y ha sido la actualización más reciente del algoritmo Google Penguin. [13]
Se informó que Google lanzó Penguin 3.0 el 18 de octubre de 2014. [14]
El 21 de octubre de 2014, Pierre Farr de Google confirmó que Penguin 3.0 era una "actualización" del algoritmo, sin nuevas señales añadidas. [15]
El 7 de abril de 2015, John Mueller, de Google, dijo en un hangout de Google+ que tanto Penguin como Panda "actualmente no están actualizando los datos regularmente" y que las actualizaciones deben enviarse manualmente. Esto confirma que el algoritmo no se actualiza continuamente, como se creía que era el caso a principios de año. [16]
El objetivo estratégico que comparten Panda, Penguin y la actualización del diseño de la página es mostrar sitios web de mayor calidad en la parte superior de los resultados de búsqueda de Google . Sin embargo, los sitios que fueron degradados como resultado de estas actualizaciones tienen diferentes conjuntos de características. El objetivo principal de Google Penguin es centrarse en las denominadas estrategias de construcción de enlaces de "sombrero negro", como la compra de enlaces, la agricultura de enlaces, los enlaces automatizados, las PBN y otras. [17]
En un Hangout de Google+ el 15 de abril de 2016, John Mueller dijo: "Estoy bastante seguro de que cuando comencemos a implementar [Penguin] tendremos un mensaje para publicar, pero por el momento no tengo nada específico que anunciar". [18]
El 23 de septiembre de 2016, Google anunció que Google Penguin ahora formaba parte del algoritmo central [19], lo que significa que se actualiza en tiempo real. Por lo tanto, ya no habrá anuncios de Google relacionados con futuras actualizaciones. [20] El tiempo real también significa que los sitios web se evalúan en tiempo real y las clasificaciones se ven afectadas en tiempo real. Durante los últimos años, en cambio, los webmasters siempre tuvieron que esperar al lanzamiento de la siguiente actualización para librarse de una penalización de Penguin. Además, Google Penguin 4.0 es más granular en comparación con las actualizaciones anteriores, ya que puede afectar a un sitio web en función de la URL en lugar de afectar siempre a un sitio web completo. Finalmente, Penguin 4.0 [21] [22] se diferencia de las versiones anteriores de Penguin en que no degrada un sitio web cuando encuentra enlaces malos. En cambio, descuenta los enlaces, lo que significa que los ignora y ya no cuentan para la clasificación del sitio web. Como resultado de esto, hay menos necesidad de usar el archivo de desautorización. [21] Google utiliza tanto algoritmos como revisores humanos para identificar enlaces que no son naturales (artificiales), manipuladores o engañosos y los incluye en su informe de Acciones manuales para sitios web. [23]
Dos días después de que se lanzara la actualización de Penguin, Google preparó un formulario de comentarios [24] , diseñado para dos categorías de usuarios: aquellos que desean denunciar spam web que sigue teniendo una buena clasificación después del cambio de algoritmo de búsqueda y aquellos que piensan que su sitio se vio afectado injustamente por la actualización. Google también tiene un formulario de reconsideración a través de Google Webmaster Tools.
En enero de 2015, John Mueller, de Google, afirmó que una penalización de Penguin se puede eliminar simplemente creando buenos enlaces. El proceso habitual consiste en eliminar los enlaces malos de forma manual o mediante la herramienta Disavow de Google y luego presentar una solicitud de reconsideración. [25] Mueller explicó esto con más detalle diciendo que el algoritmo analiza el porcentaje de enlaces buenos frente a los malos, por lo que crear más enlaces buenos puede inclinar el algoritmo a su favor, lo que conduciría a la recuperación. [26]