stringtranslate.com

Optimización de motores de búsqueda

La optimización de motores de búsqueda ( SEO ) es el proceso de mejorar la calidad y la cantidad del tráfico de un sitio web o una página web desde los motores de búsqueda . [1] [2] El SEO se dirige al tráfico no pago (conocido como resultados "naturales" u " orgánicos ") en lugar del tráfico directo o el tráfico pago . El tráfico no pago puede provenir de diferentes tipos de búsquedas, incluidas la búsqueda de imágenes , la búsqueda de videos , la búsqueda académica , [3] la búsqueda de noticias y los motores de búsqueda verticales específicos de la industria .

Como estrategia de marketing en Internet , el SEO tiene en cuenta el funcionamiento de los motores de búsqueda, los algoritmos programados por ordenador que determinan el comportamiento de los motores de búsqueda, lo que la gente busca, los términos de búsqueda reales o las palabras clave que se escriben en los motores de búsqueda y qué motores de búsqueda son los preferidos por su público objetivo. El SEO se lleva a cabo porque un sitio web recibirá más visitantes de un motor de búsqueda cuando los sitios web tengan una clasificación más alta en la página de resultados del motor de búsqueda (SERP). Estos visitantes pueden convertirse potencialmente en clientes. [4]

Historia

Los webmasters y proveedores de contenido comenzaron a optimizar sitios web para motores de búsqueda a mediados de la década de 1990, cuando los primeros motores de búsqueda catalogaban la Web primitiva . Inicialmente, todos los webmasters solo necesitaban enviar la dirección de una página, o URL , a los diversos motores, que enviarían un rastreador web para rastrear esa página, extraer enlaces a otras páginas de ella y devolver la información encontrada en la página para ser indexada . [5] El proceso implica que una araña/rastreador de motor de búsqueda rastrea una página y la almacena en el servidor del propio motor de búsqueda. Un segundo programa, conocido como indexador , extrae información sobre la página, como las palabras que contiene, dónde se encuentran y cualquier peso para palabras específicas, así como todos los enlaces que contiene la página. Toda esta información luego se coloca en un programador para rastrearla en una fecha posterior.

Los propietarios de sitios web reconocieron el valor de una alta clasificación y visibilidad en los resultados de los motores de búsqueda, [6] creando una oportunidad tanto para los profesionales de SEO de sombrero blanco como de sombrero negro . Según el analista de la industria Danny Sullivan , la frase "optimización de motores de búsqueda" probablemente comenzó a usarse en 1997. Sullivan atribuye a Bruce Clay el ser una de las primeras personas en popularizar el término. [7]

Las primeras versiones de los algoritmos de búsqueda dependían de la información proporcionada por el webmaster, como la etiqueta meta de palabras clave o los archivos de índice en motores como ALIWEB . Las etiquetas meta proporcionan una guía del contenido de cada página. Sin embargo, se descubrió que el uso de metadatos para indexar páginas era poco confiable, porque la elección de palabras clave del webmaster en la etiqueta meta podría ser una representación inexacta del contenido real del sitio. Los datos defectuosos en las etiquetas meta, como aquellos que eran inexactos o incompletos, creaban la posibilidad de que las páginas se caracterizaran erróneamente en búsquedas irrelevantes. [8] [ dudosodiscutir ] Los proveedores de contenido web también manipulaban algunos atributos dentro del código fuente HTML de una página en un intento de clasificar bien en los motores de búsqueda. [9] En 1997, los diseñadores de motores de búsqueda reconocieron que los webmasters estaban haciendo esfuerzos para clasificar bien en su motor de búsqueda y que algunos webmasters incluso estaban manipulando sus clasificaciones en los resultados de búsqueda al rellenar las páginas con palabras clave excesivas o irrelevantes. Los primeros motores de búsqueda, como Altavista e Infoseek , ajustaron sus algoritmos para evitar que los webmasters manipularan las clasificaciones. [10]

Al depender en gran medida de factores como la densidad de palabras clave , que estaban exclusivamente bajo el control de un webmaster, los primeros motores de búsqueda sufrieron abusos y manipulación de clasificaciones. Para proporcionar mejores resultados a sus usuarios, los motores de búsqueda tuvieron que adaptarse para garantizar que sus páginas de resultados mostraran los resultados de búsqueda más relevantes, en lugar de páginas no relacionadas llenas de numerosas palabras clave por webmasters sin escrúpulos. Esto significó alejarse de la fuerte dependencia de la densidad de términos a un proceso más holístico para puntuar señales semánticas. [11] Dado que el éxito y la popularidad de un motor de búsqueda están determinados por su capacidad para producir los resultados más relevantes para cualquier búsqueda dada, los resultados de búsqueda de mala calidad o irrelevantes podrían llevar a los usuarios a buscar otras fuentes de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos , teniendo en cuenta factores adicionales que eran más difíciles de manipular para los webmasters.

Las empresas que emplean técnicas demasiado agresivas pueden conseguir que los sitios web de sus clientes sean excluidos de los resultados de búsqueda. En 2005, el Wall Street Journal informó sobre una empresa, Traffic Power , que supuestamente utilizó técnicas de alto riesgo y no informó de dichos riesgos a sus clientes. [12] La revista Wired informó de que la misma empresa demandó al bloguero y especialista en optimización de motores de búsqueda Aaron Wall por escribir sobre la prohibición. [13] Matt Cutts , de Google, confirmó posteriormente que Google efectivamente había prohibido a Traffic Power y a algunos de sus clientes. [14]

Algunos motores de búsqueda también han tendido la mano a la industria del SEO y son patrocinadores e invitados frecuentes en conferencias, webchats y seminarios de SEO. Los principales motores de búsqueda proporcionan información y pautas para ayudar con la optimización de sitios web. [15] [16] Google tiene un programa Sitemaps para ayudar a los webmasters a saber si Google tiene algún problema al indexar su sitio web y también proporciona datos sobre el tráfico de Google al sitio web. [17] Bing Webmaster Tools proporciona una forma para que los webmasters envíen un mapa del sitio y feeds web, permite a los usuarios determinar la "tasa de rastreo" y realizar un seguimiento del estado de indexación de las páginas web.

En 2015, se informó que Google estaba desarrollando y promoviendo la búsqueda móvil como una característica clave en sus futuros productos. En respuesta, muchas marcas comenzaron a adoptar un enfoque diferente para sus estrategias de marketing en Internet. [18]

Relación con Google

En 1998, dos estudiantes de posgrado de la Universidad de Stanford , Larry Page y Sergey Brin , desarrollaron "Backrub", un motor de búsqueda que se basaba en un algoritmo matemático para calificar la prominencia de las páginas web. El número calculado por el algoritmo, PageRank , es una función de la cantidad y la fuerza de los enlaces entrantes . [19] PageRank estima la probabilidad de que un usuario web que navegue por la web al azar y siga enlaces de una página a otra llegue a una página determinada. En efecto, esto significa que algunos enlaces son más fuertes que otros, ya que es más probable que un internauta aleatorio llegue a una página con un PageRank más alto.

Page y Brin fundaron Google en 1998. [20] Google atrajo a un número creciente de seguidores leales entre los usuarios de Internet , a quienes les gustaba su diseño simple. [21] Se consideraron factores fuera de la página (como PageRank y análisis de hipervínculos) así como factores dentro de la página (como frecuencia de palabras clave, metaetiquetas , encabezados, enlaces y estructura del sitio) para permitir que Google evitara el tipo de manipulación que se observa en los motores de búsqueda que solo consideraban factores dentro de la página para sus clasificaciones. Aunque PageRank era más difícil de manipular , los webmasters ya habían desarrollado herramientas y esquemas de construcción de enlaces para influir en el motor de búsqueda Inktomi , y estos métodos demostraron ser igualmente aplicables para manipular PageRank. Muchos sitios se centran en intercambiar, comprar y vender enlaces, a menudo a gran escala. Algunos de estos esquemas, o granjas de enlaces , implicaban la creación de miles de sitios con el único propósito de enviar spam de enlaces . [22]

En 2004, los motores de búsqueda habían incorporado una amplia gama de factores no revelados en sus algoritmos de clasificación para reducir el impacto de la manipulación de enlaces. [23] Los principales motores de búsqueda, Google, Bing y Yahoo , no revelan los algoritmos que utilizan para clasificar las páginas. Algunos profesionales de SEO han estudiado diferentes enfoques de optimización de motores de búsqueda y han compartido sus opiniones personales. [24] Las patentes relacionadas con los motores de búsqueda pueden proporcionar información para comprender mejor los motores de búsqueda. [25] En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario. Dependiendo de su historial de búsquedas anteriores, Google creó resultados para los usuarios registrados. [26]

En 2007, Google anunció una campaña contra los enlaces pagos que transfieren PageRank. [27] El 15 de junio de 2009, Google reveló que habían tomado medidas para mitigar los efectos de la escultura de PageRank mediante el uso del atributo nofollow en los enlaces. Matt Cutts , un conocido ingeniero de software de Google, anunció que Google Bot ya no trataría los enlaces nofollow de la misma manera, para evitar que los proveedores de servicios de SEO utilicen nofollow para la escultura de PageRank. [28] Como resultado de este cambio, el uso de nofollow llevó a la evaporación de PageRank. Para evitar lo anterior, los ingenieros de SEO desarrollaron técnicas alternativas que reemplazan las etiquetas nofollow con JavaScript ofuscado y, por lo tanto, permiten la escultura de PageRank. Además, se han sugerido varias soluciones que incluyen el uso de iframes , Flash y JavaScript. [29]

En diciembre de 2009, Google anunció que utilizaría el historial de búsqueda web de todos sus usuarios para completar los resultados de búsqueda. [30] El 8 de junio de 2010 se anunció un nuevo sistema de indexación web llamado Google Caffeine . Diseñado para permitir a los usuarios encontrar resultados de noticias, publicaciones en foros y otro contenido mucho antes de su publicación que antes, Google Caffeine fue un cambio en la forma en que Google actualizaba su índice para que las cosas aparecieran más rápido en Google que antes. Según Carrie Grimes, la ingeniera de software que anunció Caffeine para Google, "Caffeine proporciona resultados un 50 por ciento más frescos para las búsquedas web que nuestro último índice..." [31] Google Instant , la búsqueda en tiempo real, se introdujo a fines de 2010 en un intento de hacer que los resultados de búsqueda fueran más oportunos y relevantes. Históricamente, los administradores de sitios han pasado meses o incluso años optimizando un sitio web para aumentar las clasificaciones de búsqueda. Con el crecimiento de la popularidad de los sitios de redes sociales y blogs, los motores líderes realizaron cambios en sus algoritmos para permitir que el contenido nuevo se clasificara rápidamente dentro de los resultados de búsqueda. [32]

En febrero de 2011, Google anunció la actualización Panda , que penaliza los sitios web que contienen contenido duplicado de otros sitios web y fuentes. Históricamente, los sitios web han copiado contenido de otros y se han beneficiado en las clasificaciones de los motores de búsqueda al participar en esta práctica. Sin embargo, Google implementó un nuevo sistema que castiga a los sitios cuyo contenido no es único. [33] El Google Penguin de 2012 intentó penalizar los sitios web que usaban técnicas de manipulación para mejorar sus clasificaciones en el motor de búsqueda. [34] Aunque Google Penguin se ha presentado como un algoritmo destinado a combatir el spam web, en realidad se centra en los enlaces spam [35] al medir la calidad de los sitios de los que provienen los enlaces. La actualización de Google Hummingbird de 2013 presentó un cambio de algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de las páginas web. El sistema de procesamiento del lenguaje de Hummingbird se incluye en el término recientemente reconocido de "búsqueda conversacional", donde el sistema presta más atención a cada palabra de la consulta para hacer coincidir mejor las páginas con el significado de la consulta en lugar de unas pocas palabras. [36] Con respecto a los cambios realizados en la optimización de motores de búsqueda, para los editores y escritores de contenido, Hummingbird pretende resolver los problemas eliminando el contenido irrelevante y el spam, lo que permite a Google producir contenido de alta calidad y confiar en ellos como autores "confiables".

En octubre de 2019, Google anunció que comenzaría a aplicar modelos BERT para consultas de búsqueda en inglés en los EE. UU. Bidirectional Encoder Representations from Transformers (BERT) fue otro intento de Google por mejorar su procesamiento del lenguaje natural, pero esta vez con el fin de comprender mejor las consultas de búsqueda de sus usuarios. [37] En términos de optimización de motores de búsqueda, BERT tenía como objetivo conectar a los usuarios más fácilmente con contenido relevante y aumentar la calidad del tráfico que llega a los sitios web que se clasifican en la página de resultados del motor de búsqueda .

Métodos

Obtener indexación

Una ilustración sencilla del algoritmo PageRank . El porcentaje muestra la importancia percibida.

Los principales motores de búsqueda, como Google, Bing y Yahoo!, utilizan rastreadores para encontrar páginas para sus resultados de búsqueda algorítmicos. Las páginas que están vinculadas desde otras páginas indexadas por motores de búsqueda no necesitan enviarse porque se encuentran automáticamente. El directorio Yahoo! y DMOZ , dos directorios importantes que cerraron en 2014 y 2017 respectivamente, requerían el envío manual y la revisión editorial humana. [38] Google ofrece Google Search Console , para la cual se puede crear y enviar un feed de mapa del sitio XML de forma gratuita para garantizar que se encuentren todas las páginas, especialmente las páginas que no se pueden descubrir al seguir enlaces automáticamente [39] además de su consola de envío de URL. [40] Yahoo! anteriormente operaba un servicio de envío pago que garantizaba el rastreo por un costo por clic ; [41] sin embargo, esta práctica se interrumpió en 2009.

Los rastreadores de motores de búsqueda pueden tener en cuenta distintos factores al rastrear un sitio. Los motores de búsqueda no indexan todas las páginas. La distancia de las páginas desde el directorio raíz de un sitio también puede ser un factor que determine si las páginas se rastrean o no. [42]

Los dispositivos móviles se utilizan para la mayoría de las búsquedas de Google. [43] En noviembre de 2016, Google anunció un cambio importante en la forma en que rastrean los sitios web y comenzó a hacer que su índice sea móvil primero, lo que significa que la versión móvil de un sitio web determinado se convierte en el punto de partida para lo que Google incluye en su índice. [44] En mayo de 2019, Google actualizó el motor de renderizado de su rastreador para que sea la última versión de Chromium (74 en el momento del anuncio). Google indicó que actualizaría periódicamente el motor de renderizado de Chromium a la última versión. [45] En diciembre de 2019, Google comenzó a actualizar la cadena User-Agent de su rastreador para reflejar la última versión de Chrome utilizada por su servicio de renderizado. La demora fue para dar tiempo a los webmasters para actualizar su código que respondía a cadenas User-Agent de bots particulares. Google realizó evaluaciones y confió en que el impacto sería menor. [46]

Prevenir el gateo

Para evitar contenido no deseado en los índices de búsqueda, los webmasters pueden indicar a los robots que no rastreen determinados archivos o directorios a través del archivo robots.txt estándar en el directorio raíz del dominio. Además, una página puede excluirse explícitamente de la base de datos de un motor de búsqueda mediante el uso de una etiqueta meta específica para robots (normalmente <meta name="robots" content="noindex"> ). Cuando un motor de búsqueda visita un sitio, el archivo robots.txt ubicado en el directorio raíz es el primer archivo que se rastrea. A continuación, se analiza el archivo robots.txt y se indica al robot qué páginas no se deben rastrear. Como el rastreador de un motor de búsqueda puede mantener una copia en caché de este archivo, en ocasiones puede rastrear páginas que un webmaster no desea rastrear. Las páginas que normalmente se impiden rastrear incluyen páginas específicas de inicio de sesión, como carritos de compra, y contenido específico del usuario, como resultados de búsquedas internas. En marzo de 2007, Google advirtió a los webmasters que debían evitar la indexación de resultados de búsqueda internos porque esas páginas se consideran spam de búsqueda. [47] En 2020, Google eliminó el estándar (y puso a disposición de los usuarios el código fuente abierto) y ahora lo trata como una sugerencia, no como una directiva. Para garantizar adecuadamente que las páginas no se indexen, se debe incluir una metaetiqueta de robot a nivel de página. [48]

Prominencia creciente

Una variedad de métodos pueden aumentar la prominencia de una página web dentro de los resultados de búsqueda. La vinculación cruzada entre páginas del mismo sitio web para proporcionar más enlaces a páginas importantes puede mejorar su visibilidad. El diseño de la página hace que los usuarios confíen en un sitio y quieran quedarse una vez que lo encuentran. Cuando las personas rebotan fuera de un sitio, cuenta en contra del sitio y afecta su credibilidad. [49] Escribir contenido que incluya frases de palabras clave buscadas con frecuencia para que sea relevante para una amplia variedad de consultas de búsqueda tenderá a aumentar el tráfico. Actualizar el contenido para que los motores de búsqueda vuelvan a rastrear con frecuencia puede dar peso adicional a un sitio. Agregar palabras clave relevantes a los metadatos de una página web, incluida la etiqueta de título y la meta descripción , tenderá a mejorar la relevancia de los listados de búsqueda de un sitio, lo que aumentará el tráfico. La canonización de URL de páginas web accesibles a través de múltiples URL, utilizando el elemento de enlace canónico [50] o mediante redirecciones 301 puede ayudar a garantizar que los enlaces a diferentes versiones de la URL cuenten para la puntuación de popularidad de enlace de la página. Estos se conocen como enlaces entrantes, que apuntan a la URL y pueden contar para el puntaje de popularidad del enlace de la página, lo que afecta la credibilidad de un sitio web. [49]

Técnicas de sombrero blanco versus técnicas de sombrero negro

Métodos comunes de sombrero blanco para la optimización de motores de búsqueda

Las técnicas de SEO se pueden clasificar en dos grandes categorías: técnicas que las empresas de motores de búsqueda recomiendan como parte de un buen diseño ("sombrero blanco"), y aquellas técnicas que los motores de búsqueda no aprueban ("sombrero negro"). Los motores de búsqueda intentan minimizar el efecto de estas últimas, entre ellas el spamdexing . Los comentaristas de la industria han clasificado estos métodos y a los profesionales que los emplean como SEO de sombrero blanco o SEO de sombrero negro . [51] Los sombreros blancos tienden a producir resultados que duran mucho tiempo, mientras que los sombreros negros anticipan que sus sitios pueden eventualmente ser prohibidos temporal o permanentemente una vez que los motores de búsqueda descubran lo que están haciendo. [52]

Una técnica de SEO se considera de sombrero blanco si se ajusta a las directrices de los motores de búsqueda y no implica engaño. Como las directrices de los motores de búsqueda [15] [16] [53] no están escritas como una serie de reglas o mandamientos, esta es una distinción importante que hay que tener en cuenta. El SEO de sombrero blanco no se trata solo de seguir directrices, sino de garantizar que el contenido que un motor de búsqueda indexa y, posteriormente, clasifica es el mismo contenido que verá un usuario. El consejo de sombrero blanco se resume generalmente en crear contenido para los usuarios, no para los motores de búsqueda, y luego hacer que ese contenido sea fácilmente accesible para los algoritmos de "araña" en línea, en lugar de intentar engañar al algoritmo para que no cumpla su propósito previsto. El SEO de sombrero blanco es en muchos aspectos similar al desarrollo web que promueve la accesibilidad, [54] aunque los dos no son idénticos.

El SEO de sombrero negro intenta mejorar las clasificaciones de formas que los motores de búsqueda desaprueban o que implican engaño. Una técnica de sombrero negro utiliza texto oculto, ya sea como texto de color similar al fondo, en un div invisible o ubicado fuera de la pantalla. Otro método genera una página diferente según si la página la solicita un visitante humano o un motor de búsqueda, una técnica conocida como cloaking . Otra categoría que se utiliza a veces es el SEO de sombrero gris . Esto se encuentra entre los enfoques de sombrero negro y sombrero blanco, donde los métodos empleados evitan que el sitio sea penalizado pero no actúan para producir el mejor contenido para los usuarios. El SEO de sombrero gris se centra completamente en mejorar las clasificaciones de los motores de búsqueda.

Los motores de búsqueda pueden penalizar los sitios que descubren mediante métodos de sombrero negro o gris, ya sea reduciendo su clasificación o eliminando sus listados de sus bases de datos. Estas penalizaciones pueden aplicarse automáticamente mediante los algoritmos de los motores de búsqueda o mediante una revisión manual del sitio. Un ejemplo fue la eliminación por parte de Google en febrero de 2006 de BMW Alemania y Ricoh Alemania por el uso de prácticas engañosas. [55] Sin embargo, ambas empresas se disculparon rápidamente, arreglaron las páginas infractoras y fueron restauradas a la página de resultados del motor de búsqueda de Google. [56]

Como estrategia de marketing

El SEO no es una estrategia apropiada para todos los sitios web, y otras estrategias de marketing en Internet pueden ser más efectivas, como la publicidad paga a través de campañas de pago por clic (PPC) , según los objetivos del operador del sitio. El marketing en motores de búsqueda (SEM) es la práctica de diseñar, ejecutar y optimizar campañas publicitarias en motores de búsqueda. Su diferencia con el SEO se describe de manera más simple como la diferencia entre la clasificación de prioridad pagada y no paga en los resultados de búsqueda. El SEM se centra en la prominencia más que en la relevancia; los desarrolladores de sitios web deben considerar al SEM con la máxima importancia teniendo en cuenta la visibilidad, ya que la mayoría navega a los listados principales de su búsqueda. [57] Una campaña de marketing en Internet exitosa también puede depender de la creación de páginas web de alta calidad para atraer y persuadir a los usuarios de Internet, configurar programas de análisis para permitir que los propietarios de sitios midan los resultados y mejorar la tasa de conversión de un sitio . [58] [59] En noviembre de 2015, Google lanzó una versión completa de 160 páginas de sus Pautas de calificación de calidad de búsqueda al público, [60] que reveló un cambio en su enfoque hacia la "utilidad" y la búsqueda local móvil . En los últimos años, el mercado móvil ha explotado, superando el uso de los ordenadores de sobremesa, como lo demuestra StatCounter en octubre de 2016, donde analizaron 2,5 millones de sitios web y descubrieron que el 51,3% de las páginas se cargaron mediante un dispositivo móvil. [61] Google ha sido una de las empresas que están aprovechando la popularidad del uso de dispositivos móviles al alentar a los sitios web a utilizar su Google Search Console , la prueba de compatibilidad con dispositivos móviles, que permite a las empresas comparar su sitio web con los resultados de los motores de búsqueda y determinar qué tan fáciles de usar son sus sitios web. Cuanto más cercanas estén las palabras clave, su clasificación mejorará en función de los términos clave. [49]

El SEO puede generar un retorno de la inversión adecuado . Sin embargo, a los motores de búsqueda no se les paga por el tráfico de búsqueda orgánico, sus algoritmos cambian y no hay garantías de referencias continuas. Debido a esta falta de garantía e incertidumbre, una empresa que depende en gran medida del tráfico de los motores de búsqueda puede sufrir pérdidas importantes si los motores de búsqueda dejan de enviar visitantes. [62] Los motores de búsqueda pueden cambiar sus algoritmos, lo que afecta la clasificación de un sitio web en los motores de búsqueda, lo que posiblemente resulte en una pérdida grave de tráfico. Según el director ejecutivo de Google, Eric Schmidt , en 2010, Google realizó más de 500 cambios de algoritmo, casi 1,5 por día. [63] Se considera una práctica comercial inteligente que los operadores de sitios web se liberen de la dependencia del tráfico de los motores de búsqueda. [64] Además de la accesibilidad en términos de rastreadores web (abordados anteriormente), la accesibilidad web del usuario se ha vuelto cada vez más importante para el SEO.

Mercados internacionales

Las técnicas de optimización están altamente ajustadas a los motores de búsqueda dominantes en el mercado objetivo. Las cuotas de mercado de los motores de búsqueda varían de un mercado a otro, al igual que la competencia. En 2003, Danny Sullivan afirmó que Google representaba alrededor del 75% de todas las búsquedas. [65] En los mercados fuera de los Estados Unidos, la cuota de Google suele ser mayor, y Google sigue siendo el motor de búsqueda dominante en todo el mundo a partir de 2007. [66] A partir de 2006, Google tenía una cuota de mercado del 85-90% en Alemania. [67] Si bien había cientos de empresas de SEO en los EE. UU. En ese momento, solo había alrededor de cinco en Alemania. [67] A partir de junio de 2008, la cuota de mercado de Google en el Reino Unido era cercana al 90% según Hitwise . [68] Esa cuota de mercado se logra en varios países.

En 2009, solo había unos pocos mercados importantes en los que Google no era el motor de búsqueda líder. En la mayoría de los casos, cuando Google no era líder en un mercado determinado, se quedaba atrás de un actor local. Los ejemplos más notables son China, Japón, Corea del Sur, Rusia y la República Checa, donde Baidu , Yahoo! Japan , Naver , Yandex y Seznam eran líderes del mercado, respectivamente.

Para optimizar la búsqueda en los mercados internacionales es posible que sea necesario traducir las páginas web de manera profesional, registrar un nombre de dominio con un dominio de nivel superior en el mercado de destino y alojar la página web con una dirección IP local . Por lo demás, los elementos fundamentales de la optimización de la búsqueda son básicamente los mismos, independientemente del idioma. [67]

Precedentes legales

El 17 de octubre de 2002, SearchKing presentó una demanda en el Tribunal de Distrito de los Estados Unidos , Distrito Oeste de Oklahoma, contra el motor de búsqueda Google. SearchKing alegaba que las tácticas de Google para impedir la indexación de spam constituían una interferencia ilícita en las relaciones contractuales. El 27 de mayo de 2003, el tribunal aceptó la petición de Google de desestimar la demanda porque SearchKing "no había formulado una reclamación sobre la que se pudiera conceder una reparación". [69] [70]

En marzo de 2006, KinderStart presentó una demanda contra Google por la clasificación en los motores de búsqueda. El sitio web de KinderStart fue eliminado del índice de Google antes de la demanda y la cantidad de tráfico al sitio se redujo en un 70%. El 16 de marzo de 2007, el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California ( División de San José ) desestimó la demanda de KinderStart sin permiso para enmendarla y concedió parcialmente la moción de Google de sanciones de la Regla 11 contra el abogado de KinderStart, exigiéndole que pagara parte de los gastos legales de Google. [71] [72]

Véase también

Referencias

  1. ^ "SEO – optimización de motores de búsqueda". Webopedia . 19 de diciembre de 2001. Archivado desde el original el 9 de mayo de 2019. Consultado el 9 de mayo de 2019 .
  2. ^ Giomelakis, Dimitrios; Veglis, Andreas (2 de abril de 2016). "Investigación de los factores de optimización de motores de búsqueda en sitios web de medios: el caso de Grecia". Periodismo digital . 4 (3): 379–400. doi :10.1080/21670811.2015.1046992. ISSN  2167-0811. S2CID  166902013. Archivado desde el original el 30 de octubre de 2022 . Consultado el 30 de octubre de 2022 .
  3. ^ Beel, Jöran; Gipp, Bela; Wilde, Erik (2010). «Optimización de motores de búsqueda académicos (ASEO): optimización de la literatura académica para Google Scholar and Co» (PDF) . Journal of Scholarly Publishing. págs. 176–190. Archivado desde el original (PDF) el 18 de noviembre de 2017 . Consultado el 18 de abril de 2010 .
  4. ^ Ortiz-Cordova, A. y Jansen, BJ (2012) Clasificación de consultas de búsqueda web para identificar clientes que generan altos ingresos. Archivado el 4 de marzo de 2016 en Wayback Machine . Revista de la Sociedad Estadounidense de Ciencias de la Información y Tecnología. 63(7), 1426 – 1441.
  5. ^ Brian Pinkerton. "Encontrar lo que la gente quiere: experiencias con WebCrawler" (PDF) . Segunda Conferencia Internacional sobre la WWW, Chicago, EE. UU., 17-20 de octubre de 1994. Archivado (PDF) desde el original el 8 de mayo de 2007. Consultado el 7 de mayo de 2007 .
  6. ^ "Introducción a la optimización de motores de búsqueda | Search Engine Watch". searchenginewatch.com . 12 de marzo de 2007. Archivado desde el original el 9 de octubre de 2020 . Consultado el 7 de octubre de 2020 .
  7. ^ Danny Sullivan (14 de junio de 2004). «¿Quién inventó el término «optimización de motores de búsqueda»?». Search Engine Watch . Archivado desde el original el 23 de abril de 2010. Consultado el 14 de mayo de 2007 .Ver hilo de grupos de Google Archivado el 17 de junio de 2013 en Wayback Machine .
  8. ^ "El desafío está abierto", Cerebro vs Computadora , WORLD SCIENTIFIC, pp. 189–211, 17 de noviembre de 2020, doi :10.1142/9789811225017_0009, ISBN 978-981-12-2500-0, S2CID  243130517, archivado del original el 14 de agosto de 2022 , consultado el 20 de septiembre de 2021
  9. ^ Pringle, G., Allison, L. y Dowe, D. (abril de 1998). "¿Qué es una amapola alta entre las páginas web?". Proc. 7th Int. World Wide Web Conference. Archivado desde el original el 27 de abril de 2007. Consultado el 8 de mayo de 2007 .{{cite web}}: CS1 maint: varios nombres: lista de autores ( enlace )
  10. ^ Laurie J. Flynn (11 de noviembre de 1996). "Buscando surfistas desesperadamente". New York Times . Archivado desde el original el 30 de octubre de 2007. Consultado el 9 de mayo de 2007 .
  11. ^ Jason Demers (20 de enero de 2016). «¿Sigue siendo importante la densidad de palabras clave para el SEO?». Forbes . Archivado desde el original el 16 de agosto de 2016. Consultado el 15 de agosto de 2016 .
  12. ^ David Kesmodel (22 de septiembre de 2005). «Los motores de búsqueda descartan sitios que intentan «optimizar» sus clasificaciones». Wall Street Journal . Archivado desde el original el 4 de agosto de 2020. Consultado el 30 de julio de 2008 .
  13. ^ Adam L. Penenberg (8 de septiembre de 2005). "Legal Showdown in Search Fracas". Revista Wired . Archivado desde el original el 4 de marzo de 2016. Consultado el 11 de agosto de 2016 .
  14. ^ Matt Cutts (2 de febrero de 2006). "Confirmación de un penalti". mattcutts.com/blog. Archivado desde el original el 26 de junio de 2012. Consultado el 9 de mayo de 2007 .
  15. ^ ab "Directrices de Google sobre diseño de sitios". Archivado desde el original el 9 de enero de 2009 . Consultado el 18 de abril de 2007 .
  16. ^ ab "Bing Webmaster Guidelines". bing.com. Archivado desde el original el 9 de septiembre de 2014. Consultado el 11 de septiembre de 2014 .
  17. ^ "Mapas del sitio". Archivado desde el original el 22 de junio de 2023. Consultado el 4 de julio de 2012 .
  18. ^ ""Según los datos: para los consumidores, el móvil es Internet" Google for Entrepreneurs Startup Grind 20 de septiembre de 2015". Archivado desde el original el 6 de enero de 2016 . Consultado el 8 de enero de 2016 .
  19. ^ Brin, Sergey y Page, Larry (1998). "La anatomía de un motor de búsqueda web hipertextual a gran escala". Actas de la séptima conferencia internacional sobre la World Wide Web. págs. 107-117. Archivado desde el original el 10 de octubre de 2006. Consultado el 8 de mayo de 2007 .
  20. ^ "Cofundadores de Google - Los cofundadores de Google pueden no tener el reconocimiento de nombre de, digamos, Bill Gates, pero dales tiempo: Google no ha existido tanto tiempo como Microsoft". Entrepreneur . 15 de octubre de 2008. Archivado desde el original el 31 de mayo de 2014 . Consultado el 30 de mayo de 2014 .
  21. ^ Thompson, Bill (19 de diciembre de 2003). "¿Google es bueno para ti?". BBC News . Archivado desde el original el 25 de enero de 2009. Consultado el 16 de mayo de 2007 .
  22. ^ Zoltan Gyongyi y Hector Garcia-Molina (2005). "Link Spam Alliances" (PDF) . Actas de la 31.ª Conferencia VLDB, Trondheim, Noruega. Archivado (PDF) desde el original el 12 de junio de 2007. Consultado el 9 de mayo de 2007 .
  23. ^ Hansell, Saul (3 de junio de 2007). «Google sigue modificando su motor de búsqueda». New York Times . Archivado desde el original el 10 de noviembre de 2017. Consultado el 6 de junio de 2007 .
  24. ^ Sullivan, Danny (29 de septiembre de 2005). "Resumen de los factores de clasificación de búsqueda". Search Engine Watch . Archivado desde el original el 28 de mayo de 2007. Consultado el 8 de mayo de 2007 .
  25. ^ Christine Churchill (23 de noviembre de 2005). «Understanding Search Engine Patents» (Entender las patentes de los motores de búsqueda). Search Engine Watch . Archivado desde el original el 7 de febrero de 2007. Consultado el 8 de mayo de 2007 .
  26. ^ "Google Personalized Search Leaves Google Labs". searchenginewatch.com . Search Engine Watch. Archivado desde el original el 25 de enero de 2009 . Consultado el 5 de septiembre de 2009 .
  27. ^ "8 cosas que aprendimos sobre Google PageRank". www.searchenginejournal.com. 25 de octubre de 2007. Archivado desde el original el 19 de agosto de 2009. Consultado el 17 de agosto de 2009 .
  28. ^ "Esculpiendo el PageRank". Matt Cutts. Archivado desde el original el 6 de enero de 2010. Consultado el 12 de enero de 2010 .
  29. ^ "Google pierde la "compatibilidad con versiones anteriores" en el bloqueo de enlaces pagos y la modificación del PageRank". searchengineland.com. 3 de junio de 2009. Archivado desde el original el 14 de agosto de 2009. Consultado el 17 de agosto de 2009 .
  30. ^ "Búsqueda personalizada para todos". Archivado desde el original el 8 de diciembre de 2009 . Consultado el 14 de diciembre de 2009 .
  31. ^ "Nuestro nuevo índice de búsqueda: Cafeína". Google: Blog oficial. Archivado desde el original el 18 de junio de 2010. Consultado el 10 de mayo de 2014 .
  32. ^ "Relevance Meets Real-Time Web". Blog de Google . Archivado desde el original el 7 de abril de 2019. Consultado el 4 de enero de 2010 .
  33. ^ "Actualizaciones de calidad de búsqueda de Google". Blog de Google . Archivado desde el original el 23 de abril de 2022. Consultado el 21 de marzo de 2012 .
  34. ^ "Lo que necesita saber sobre la actualización Penguin de Google". Inc.com . 20 de junio de 2012. Archivado desde el original el 20 de diciembre de 2012. Consultado el 6 de diciembre de 2012 .
  35. ^ "Google Penguin analiza principalmente la fuente de tu enlace, dice Google". Search Engine Land . 10 de octubre de 2016. Archivado desde el original el 21 de abril de 2017 . Consultado el 20 de abril de 2017 .
  36. ^ "Preguntas frecuentes: Todo sobre el nuevo algoritmo "Hummingbird" de Google". www.searchengineland.com . 26 de septiembre de 2013. Archivado desde el original el 23 de diciembre de 2018 . Consultado el 17 de marzo de 2018 .
  37. ^ "Comprender las búsquedas mejor que nunca". Google . 25 de octubre de 2019. Archivado desde el original el 27 de enero de 2021 . Consultado el 12 de mayo de 2020 .
  38. ^ "Envío de archivos a directorios: Yahoo y Open Directory". Search Engine Watch . 12 de marzo de 2007. Archivado desde el original el 19 de mayo de 2007. Consultado el 15 de mayo de 2007 .
  39. ^ "¿Qué es un archivo Sitemap y por qué debería tener uno?". Archivado desde el original el 1 de julio de 2007. Consultado el 19 de marzo de 2007 .
  40. ^ "Search Console - URL de rastreo". Archivado desde el original el 14 de agosto de 2022. Consultado el 18 de diciembre de 2015 .
  41. ^ Sullivan, Danny (12 de marzo de 2007). "Envío a los rastreadores de búsqueda: Google, Yahoo, Ask y Microsoft Live Search". Search Engine Watch . Archivado desde el original el 10 de mayo de 2007. Consultado el 15 de mayo de 2007 .
  42. ^ Cho, J.; Garcia-Molina, H.; Page, L. (1998). "Rastreo eficiente mediante ordenación de URL". Séptima Conferencia Internacional sobre la World-Wide Web . Brisbane, Australia: Stanford InfoLab Publication Server. Archivado desde el original el 14 de julio de 2019. Consultado el 9 de mayo de 2007 .
  43. ^ "Índice Mobile-first". Archivado desde el original el 22 de febrero de 2019 . Consultado el 19 de marzo de 2018 .
  44. ^ Phan, Doantam (4 de noviembre de 2016). «Mobile-first Indexing» (Indexación que prioriza los dispositivos móviles). Blog oficial de Google Webmaster Central . Archivado desde el original el 22 de febrero de 2019. Consultado el 16 de enero de 2019 .
  45. ^ "El nuevo Googlebot de siempre". Blog oficial de Google Webmaster Central . Archivado desde el original el 6 de noviembre de 2020. Consultado el 2 de marzo de 2020 .
  46. ^ "Actualización del agente de usuario de Googlebot". Blog oficial de Google Webmaster Central . Archivado desde el original el 2 de marzo de 2020. Consultado el 2 de marzo de 2020 .
  47. ^ "¡Los periódicos se vuelven locos! ¿El New York Times bombardea Google? ¿El LA Times secuestra Cars.com?". Search Engine Land . 8 de mayo de 2007. Archivado desde el original el 26 de diciembre de 2008. Consultado el 9 de mayo de 2007 .
  48. ^ Jill Kocher Brown (24 de febrero de 2020). "Google rebaja la directiva Nofollow. ¿Y ahora qué?". Practical Ecommerce. Archivado desde el original el 25 de enero de 2021. Consultado el 11 de febrero de 2021 .
  49. ^ abc Morey, Sean (2008). El escritor digital . Fountainhead Press. págs. 171–187.
  50. ^ "Bing – Colaboración para ayudar a resolver problemas de contenido duplicado – Blog para webmasters – Comunidad Bing". www.bing.com. 12 de febrero de 2009. Archivado desde el original el 7 de junio de 2014. Consultado el 30 de octubre de 2009 .
  51. ^ Andrew Goodman. "Search Engine Showdown: Black hats vs. White hats at SES". SearchEngineWatch. Archivado desde el original el 22 de febrero de 2007. Consultado el 9 de mayo de 2007 .
  52. ^ Jill Whalen (16 de noviembre de 2004). "Optimización de motores de búsqueda de sombrero negro y sombrero blanco". searchengineguide.com. Archivado desde el original el 17 de noviembre de 2004. Consultado el 9 de mayo de 2007 .
  53. ^ "¿Qué es un SEO? ¿Google recomienda trabajar con empresas que se ofrezcan a hacer que mi sitio sea compatible con Google?". Archivado desde el original el 16 de abril de 2006. Consultado el 18 de abril de 2007 .
  54. ^ Andy Hagans (8 de noviembre de 2005). "La alta accesibilidad es una optimización eficaz de los motores de búsqueda". A List Apart . Archivado desde el original el 4 de mayo de 2007. Consultado el 9 de mayo de 2007 .
  55. ^ Matt Cutts (4 de febrero de 2006). "Aumento del spam web internacional". mattcutts.com/blog. Archivado desde el original el 29 de junio de 2012. Consultado el 9 de mayo de 2007 .
  56. ^ Matt Cutts (7 de febrero de 2006). «Reinclusiones recientes». mattcutts.com/blog. Archivado desde el original el 22 de mayo de 2007. Consultado el 9 de mayo de 2007 .
  57. ^ Tapan, Panda (2013). "Marketing en motores de búsqueda: ¿el proceso de descubrimiento de conocimiento ayuda a los minoristas en línea?". IUP Journal of Knowledge Management . 11 (3): 56–66. ProQuest  1430517207.
  58. ^ Melissa Burdon (13 de marzo de 2007). "La batalla entre la optimización de motores de búsqueda y la conversión: ¿quién gana?". Grok.com. Archivado desde el original el 15 de marzo de 2008. Consultado el 10 de abril de 2017 .
  59. ^ "Consejos SEO y estrategias de marketing". Archivado desde el original el 30 de octubre de 2022 . Consultado el 30 de octubre de 2022 .
  60. ^ ""Pautas para evaluadores de calidad de búsquedas" Cómo funciona la búsqueda 12 de noviembre de 2015" (PDF) . Archivado (PDF) del original el 29 de marzo de 2019 . Consultado el 11 de enero de 2016 .
  61. ^ Titcomb, James (noviembre de 2016). «El uso de la web móvil supera al de la computadora de escritorio por primera vez» . The Telegraph . Archivado desde el original el 10 de enero de 2022. Consultado el 17 de marzo de 2018 .
  62. ^ Andy Greenberg (30 de abril de 2007). "Condenado al infierno de Google". Forbes . Archivado desde el original el 2 de mayo de 2007. Consultado el 9 de mayo de 2007 .
  63. ^ Matt McGee (21 de septiembre de 2011). «El testimonio de Schmidt revela cómo Google prueba los cambios de algoritmo». Archivado desde el original el 17 de enero de 2012. Consultado el 4 de enero de 2012 .
  64. ^ Jakob Nielsen (9 de enero de 2006). "Los motores de búsqueda como sanguijuelas en la Web". useit.com. Archivado desde el original el 25 de agosto de 2012. Consultado el 14 de mayo de 2007 .
  65. ^ Graham, Jefferson (26 de agosto de 2003). «El motor de búsqueda que podría». USA Today . Archivado desde el original el 17 de mayo de 2007. Consultado el 15 de mayo de 2007 .
  66. ^ Greg Jarboe (22 de febrero de 2007). «Las estadísticas muestran que Google domina el panorama de búsquedas internacionales». Search Engine Watch . Archivado desde el original el 23 de mayo de 2011. Consultado el 15 de mayo de 2007 .
  67. ^ abc Mike Grehan (3 de abril de 2006). "Optimización de motores de búsqueda para Europa". Clic. Archivado desde el original el 6 de noviembre de 2010. Consultado el 14 de mayo de 2007 .
  68. ^ Jack Schofield (10 de junio de 2008). «Google UK se acerca al 90% de cuota de mercado». The Guardian . Londres. Archivado desde el original el 17 de diciembre de 2013. Consultado el 10 de junio de 2008 .
  69. ^ "Search King, Inc. v. Google Technology, Inc., CIV-02-1457-M" (PDF) . docstoc.com. 27 de mayo de 2003. Archivado desde el original el 27 de mayo de 2008. Consultado el 23 de mayo de 2008 .
  70. Stefanie Olsen (30 de mayo de 2003). «Juez desestima demanda contra Google». CNET . Archivado desde el original el 1 de diciembre de 2010. Consultado el 10 de mayo de 2007 .
  71. ^ "Technology & Marketing Law Blog: KinderStart v. Google Dismissed—With Sanctions Against KinderStart's Counsel" (Blog de Derecho de Tecnología y Marketing: KinderStart contra Google desestimado, con sanciones contra el abogado de KinderStart). blog.ericgoldman.org. 20 de marzo de 2007. Archivado desde el original el 11 de mayo de 2008. Consultado el 23 de junio de 2008 .
  72. ^ "Technology & Marketing Law Blog: Google Sued Over Rankings—KinderStart.com v. Google" (Blog de Derecho de Tecnología y Marketing: Google demandado por clasificaciones: KinderStart.com contra Google). blog.ericgoldman.org. Archivado desde el original el 22 de junio de 2008. Consultado el 23 de junio de 2008 .

Enlaces externos

Escuche este artículo ( 22 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 20 de mayo de 2008 y no refleja ediciones posteriores. ( 2008-05-20 )