Historial de actualizaciones de algoritmos de Google: una guía completa

Publicado: 2018-01-31

En el mundo del posicionamiento en buscadores (SEO). Pocos temas han generado tanta atención colectiva como el desarrollo y la aparición de actualizaciones de algoritmos de Google. Estas adiciones de codificación al algoritmo de clasificación de búsqueda de Google, que varían en tamaño y alcance, tienen la capacidad de cambiar fundamentalmente la forma en que funciona el algoritmo, y lo han hecho periódicamente a lo largo de los años.

Cada vez que se lanza una nueva actualización, los profesionales de SEO se vuelven locos, emocionados de profundizar y aprender qué cambió. Y entre las actualizaciones, tendemos a esperar y especular sobre los cambios que podrían producirse en el futuro.

Si eres nuevo en el mundo del SEO, todo esto puede parecer muy intimidante. Google ha estado lanzando actualizaciones durante la mayor parte de las dos décadas, lo cual es mucho para ponerse al día, y no hay señales de que su impulso se desacelere en el futuro cercano. Google es una empresa comprometida con el cambio y el desarrollo continuos, y su algoritmo es un reflejo de eso; como especialistas en marketing de búsqueda, debemos estar dispuestos a cambiar y desarrollarnos a la par.

Para ayudar a educar a los recién llegados al mundo del SEO, proporcionar un repaso para aquellos de nosotros que estamos en el centro de él y sentar una base con la que podamos predecir el futuro de los desarrollos de Google, he reunido este historial completo de actualizaciones de Google para su el placer de leer o leer detenidamente.

Tabla de contenido

Tabla de contenido

+ Conceptos básicos sobre las actualizaciones de Google
+ La era temprana
+ Panda y pingüino
+ Actualizaciones más pequeñas
+ La Era Moderna

Conceptos básicos sobre las actualizaciones de Google

Primero, quiero cubrir algunos conceptos básicos sobre las actualizaciones de Google. Debido a la mayor atención que reciben de los profesionales de SEO, así como de los webmasters, especialistas en marketing y emprendedores en general, ha habido algunos conceptos erróneos que se han desarrollado con el tiempo.

Cómo funcionan las actualizaciones

Probablemente entienda bien la idea detrás de una actualización de Google desde una perspectiva conceptual. Definitivamente estás familiarizado con la búsqueda de Google en general; su función principal es brindar a los usuarios una lista de los mejores y más relevantes resultados para sus consultas de búsqueda y, a menos que sea un usuario incondicional de Bing, probablemente esté de acuerdo en que está haciendo un buen trabajo.

Pero no siempre fue un sistema tan impresionante como lo es hoy. Los resultados de la búsqueda generalmente se calculan en función de dos categorías amplias de factores: relevancia y autoridad .

La relevancia de un resultado se determina evaluando qué tan bien el contenido de un sitio coincide con la intención de un usuario; En el pasado, esto se basaba en un estricto sistema de concordancia de palabras clave uno a uno que buscaba páginas web que usaban un término de palabra clave específico más que sus contemporáneos. La autoridad de un sitio fue determinada por PageRank, pero después de su desaparición, han surgido otras métricas de terceros como Domain Rating y Domain Authority. Estos indicadores buscan los perfiles de backlinks de los sitios para determinar cómo se relacionan con otros sitios web y autoridades.

Estos dos sistemas se actualizan con frecuencia, a medida que Google descubre formas nuevas, más sofisticadas y menos explotables de evaluar la relevancia y la autoridad. También encuentra nuevas formas de presentar información en las páginas de resultados de su motor de búsqueda (SERP) y agrega nuevas funciones para facilitar la vida de los buscadores.

Cuando Google decide crear una actualización, dependiendo del tamaño, puede enviarse directamente al algoritmo principal o publicarse como una especie de rama de prueba, para evaluar su efectividad y funcionalidad.

De cualquier manera, la actualización puede mejorarse con iteraciones posteriores a lo largo del tiempo. A veces, Google anuncia estos cambios con anticipación, lo que les permite a los webmasters saber qué pueden esperar de la actualización, pero la mayoría de las veces, se implementan en silencio y solo sabemos de su existencia debido a los cambios que vemos y medimos en las SERP.

Las actualizaciones son importantes porque afectan el funcionamiento de la búsqueda en general, incluida la forma en que se muestra su sitio y cómo los usuarios interactúan con él.

Cómo afectan las actualizaciones al SEO

La percepción común es que las actualizaciones son malas noticias para el SEO. Se considera que son malos para el negocio de SEO, lanzando una llave en los planes mejor trazados de los optimizadores para obtener rangos más altos para sus respectivos sitios y causando pánico masivo cuando salen y aplastan las clasificaciones ganadas con tanto esfuerzo de todos.

How updates affect SEO

(Fuente de la imagen: SearchEngineLand)

Hay algo de verdad en esto; la gente tiende a entrar en pánico cuando una nueva actualización de Google provoca un cambio significativo en la forma en que se muestran las clasificaciones. Sin embargo, las actualizaciones no son simplemente una forma de que Google intervenga y critique los rumores de SEO de todos; son piezas complicadas de maquinaria algorítmica diseñadas para hacer un mejor trabajo al proporcionar información de calidad a los usuarios de Google.

En consecuencia, tienen un efecto masivo en SEO, pero no es del todo malo.

  • Ranking de volatilidad. Primero, casi siempre hay algo de volatilidad en la clasificación cuando se lanza una nueva actualización, pero por alguna razón, esto se ha asociado con caídas de clasificación y penalizaciones. Sí, las "penalizaciones" pueden surgir de las actualizaciones de Google a medida que Google disminuye la autoridad de los sitios que participan en ciertas acciones que considera de baja calidad (como actividades ilegales), pero si los sitios solo fueran penalizados en la clasificación, ¿qué pasaría con los SERP? ? La realidad es que algunos sitios bajan en la clasificación y otros suben a medida que son recompensados ​​por participar en estrategias y ofertas de mayor calidad. En general, esta volatilidad tiende a ser modesta; no es tan severo como la mayoría de la gente cree que es.
  • Influencia en las mejores prácticas. Las actualizaciones de Google también ayudan a los optimizadores de búsqueda a reevaluar y redefinir sus mejores prácticas para tener éxito en la visibilidad en línea. Cuando Google impulsa una nueva actualización, generalmente es para mejorar algún elemento de la experiencia del usuario en línea, como cuando mejora su capacidad para evaluar contenido "bueno". Cuando esto sucede, los especialistas en marketing de búsqueda pueden aprender de la actualización y mejorar su propia provisión de contenido a los usuarios. Es cierto que algunos optimizadores están siempre por delante de la curva y no todas las actualizaciones de algoritmos afectan directamente a los webmasters, pero como regla general, las actualizaciones son un medio de progresión en la industria.
  • Nuevas funciones para jugar. Algunas actualizaciones de Google no interfieren con las evaluaciones de autoridad o relevancia; en su lugar, agregan funciones completamente nuevas a la Búsqueda de Google. Por ejemplo, Google Knowledge Graph surgió como una forma completamente nueva de proporcionar a los usuarios información sobre sus temas determinados. Ahora, todos nos hemos acostumbrado a la idea de obtener información instantánea sobre cualquier pregunta que hagamos o sobre cualquier tema que elijamos. Estas nuevas incorporaciones también representan nuevas oportunidades para ganar visibilidad en las búsquedas; por ejemplo, es posible que los webmasters trabajen para que sus marcas aparezcan en más entradas del Gráfico de conocimiento en lugar de en los resultados de búsqueda puramente orgánicos.
  • Reforzando viejas ideas. A menudo, las actualizaciones de Google no lanzarán nada particularmente nuevo, sino que existen como un refuerzo de una vieja idea que se expulsó anteriormente. Por ejemplo, Google ocasionalmente implementará nuevas funciones que evalúan la calidad del contenido en la web; esto no cambia el hecho de que la calidad del contenido es un factor masivo para determinar la autoridad, pero refina cómo se calculan estas cifras. En consecuencia, muchas actualizaciones de Google no brindan nueva información a los optimizadores de búsqueda, sino que les brindan un mayor refuerzo positivo de que las estrategias que han adoptado están en el camino correcto.

Por qué las actualizaciones suelen ser ambiguas

Uno de los elementos más frustrantes de las actualizaciones de Google es su asombroso nivel de ambigüedad, y se manifiesta en varias formas diferentes:

  • Ambigüedad del anuncio. Google ocasionalmente anunciará sus actualizaciones con anticipación. Por ejemplo, publicó información sobre su llamada actualización "Mobilegeddon" mucho antes del lanzamiento real para dar tiempo a los webmasters para actualizar sus sitios para dispositivos móviles. Sin embargo, es más común que Google implemente sus actualizaciones en silencio, comprometiendo el cambio en su algoritmo sin decirle a nadie al respecto.
  • Efectos en los rangos de búsqueda. Incluso cuando los optimizadores de búsqueda notan la volatilidad en la clasificación y comienzan a investigar, Google es notoriamente reservado sobre la verdadera naturaleza y el alcance de la actualización. Cuando la empresa se desvía de la norma y anuncia actualizaciones con anticipación, generalmente describe la naturaleza de la actualización en general, por ejemplo, indica que la actualización está destinada a mejorar la evaluación de la calidad del contenido. Por lo general, no entra en detalles específicos sobre la codificación o la funcionalidad real de la actualización, incluso cuando lo solicitan profesionales que buscan más información.
  • Principios y finales. Las actualizaciones no siempre se implementan tan rápido como se acciona un interruptor de luz. En cambio, tienden a ocurrir gradualmente; por ejemplo, algunas actualizaciones se “implementan” en el transcurso de un fin de semana antes de que se vean sus efectos completos en las clasificaciones de búsqueda. En otros casos, Google puede impulsar una actualización principal y luego agregarla con nuevas iteraciones, modificaciones y versiones más adelante.

Si Google publica estas actualizaciones para mejorar la Web, ¿por qué la empresa oculta intencionalmente detalles como estos a los webmasters? La respuesta es bastante simple. La principal razón por la que Google lanza actualizaciones en primer lugar es mejorar la experiencia general del usuario.

Imagine que Google publica los detalles exactos de cómo clasifica los sitios; Los webmasters se esforzarían por explotar esta información con el único propósito de ganar rango, comprometiendo la experiencia del usuario. Enmascarar esta información con ambigüedad es una medida defensiva para evitar que se produzca este nivel de manipulación.

Patrones y similitudes

Debido a que las actualizaciones de Google son tan ambiguas, una de las mejores herramientas que tenemos como optimizadores de búsqueda es nuestra capacidad para detectar patrones y puntos en común en estas actualizaciones. Esto no solo nos brinda una mejor comprensión de la motivación de Google y un conocimiento más claro del alcance total de los efectos de una actualización, sino que también nos permite hacer predicciones más significativas sobre las actualizaciones que pueden venir en el futuro.

  • Patrones anuales. Generalmente, Google lanzará varias actualizaciones en el lapso de un año, pero por lo general ha habido al menos una actualización "grande" por año; este no fue el caso en 2015, y antes de 2011, la mayoría de las actualizaciones eran cambios mensuales más pequeños, por lo que es difícil concretar este patrón definitivamente. Las actualizaciones más grandes, como Panda y Penguin, fueron objeto de revisiones anuales durante un tiempo, y las versiones 2.0 salieron casi exactamente un año después, pero Google ha cambiado recientemente este formato de lanzamiento a algo más gradual. A menudo, los especialistas en marketing de búsqueda predecirán el momento de los próximos lanzamientos de Google para un año determinado basándose en información anterior.
  • Actualizaciones por lotes. Google también tiene una tendencia a "agrupar" las actualizaciones juntas, especialmente cuando son pequeñas. Si está realizando un cambio importante en su algoritmo central, esto no es posible, pero si está realizando una serie de ajustes más pequeños, generalmente los lanza todos a la vez como un paquete. Rara vez vienen con una advertencia o una descripción general.
  • Probando mejoras específicas. Las mejoras específicas, como los cambios en el diseño de un SERP, tienden a publicarse como una prueba antes de implementarse en la comunidad en general. Los usuarios de un grupo demográfico específico, o en un área específica, pueden informar haber visto el cambio antes de que se comprometa a escala nacional completa. Luego, algunos meses después, es probable que Google confirme el cambio con varias mejoras como versión finalizada.
  • Iteraciones y reiteraciones. La mayoría de las actualizaciones menores hablan por sí mismas, pero para actualizaciones más grandes, Google necesita usar bloques de construcción para completar su construcción. Las actualizaciones gigantes que cambian el juego, como Panda y Penguin, son objeto de revisiones, ajustes, actualizaciones de datos e incluso combinaciones, como cuando Panda se incorporó al algoritmo de clasificación central de Google.

Convenciones de nombres

Ya he hecho referencia a un puñado de actualizaciones de Google con diferentes nombres, así que quería tomarme un minuto para hablar sobre estas convenciones de nomenclatura de actualizaciones. Google nombra formalmente algunas actualizaciones; por ejemplo, los principales algoritmos Panda y Penguin recibieron nombres formales y oficiales para que los miembros de la comunidad pudieran entenderlos y discutirlos fácilmente. Sin embargo, dado que Google no dice nada acerca de la mayoría de sus lanzamientos, solo un puñado de actualizaciones obtienen nombres oficiales.

En cambio, es el poder colectivo de una comunidad lo que generalmente aterriza en un nombre. En los primeros días de las actualizaciones de Google, la comunidad de Web Master World se hizo cargo de las actualizaciones de nombres que, de otro modo, se lanzarían de manera informal y silenciosa. A veces, estos nombres se basaron en descriptores básicos, como el nombre de la ciudad donde se anunció la actualización, y otras veces, tomaron nombres humanos muy parecidos a los de los huracanes.

Hoy en día, la mayoría de los nombres de las actualizaciones surgen de la comunidad de SEO cuando los líderes intentan describir lo que está sucediendo (como con la sugerente actualización de Mobilegeddon) o se adhieren al hábito de Google de nombrar arbitrariamente las actualizaciones como animales que comienzan con "P" (como con Paloma, Panda y Pingüino). Las actualizaciones secuenciales generalmente se mantienen en orden numérico, como puede imaginar.

Al entrar en la sección principal de este artículo, donde detallo cada una de las actualizaciones importantes de Google, quiero advertirles que estas actualizaciones están agrupadas contextualmente. En su mayor parte, se mantendrán en orden cronológico, pero puede haber desviaciones según la categoría respectiva de cada actualización.

La era temprana

Ahora es el momento de profundizar en las actualizaciones reales que han convertido a Google en el potente algoritmo de búsqueda universal que es hoy.

Actualizaciones anteriores a 2003

Aunque Google se lanzó oficialmente en 1998, no fue hasta 2003 que comenzó a realizar actualizaciones significativas en su proceso de búsqueda (o al menos, mantuvo suficiente atención en la comunidad de marketing en línea para que la gente se preocupara por ellos). Antes de 2003, hubo algunos cambios, tanto en el proceso de clasificación como en el diseño visual del motor de búsqueda, pero las cosas realmente comenzaron con la actualización de Boston en febrero de 2003.

  • Boston y el baile de Google. La actualización de Boston es la primera actualización de Google con nombre, así llamada porque se anunció en SES Boston. No está claro exactamente qué cambió esta actualización, pero hizo algunos ajustes importantes en el algoritmo de clasificación de Google además de actualizar sus datos de índice. Más importante aún, Boston marcó la pauta para la serie de actualizaciones que vendrán de Google, conocidas como el "baile de Google". Estas actualizaciones de baile de Google fueron actualizaciones mensuales pequeñas pero significativas que cambiaron muchas cosas en el algoritmo central de Google, desde cómo se calcula la autoridad hasta actualizaciones importantes de índices.
  • Cassandra. Cassandra fue una de las primeras actualizaciones mensuales, lanzada en abril de 2003. Su objetivo principal era comenzar a luchar contra los spammers de enlaces, que estaban explotando el sistema de Google para clasificar los sitios en función del número de backlinks que apuntaban a su dominio. También penalizó a los sitios con texto oculto o enlaces ocultos, que eran frecuentes en 2003.
  • Dominic. Dominic sigue siendo un misterio. Cuando se lanzó en mayo de 2003 como la última incorporación del baile de Google, los optimizadores de búsqueda parecieron notar sus efectos prominentes de inmediato. Aunque no está claro el alcance total de los cambios, el recuento y los informes de backlinks parecieron sufrir una revisión masiva.
  • Esmerelda. Esmeralda es una de las últimas actualizaciones de baile de Google, que salió en junio de 2003. Fue menos significativa que Cassandra o Dominic, pero parecía representar algunos cambios de infraestructura importantes en Google, ya que las actualizaciones mensuales fueron reemplazadas por un flujo más continuo.
  • Fritz. Como lo explica Matt Cutts, Fritz es la última actualización oficial de baile de Google. En cambio, Google comenzó a esforzarse por lograr un enfoque de actualización más gradual y progresivo.
  • El índice suplementario. En septiembre de 2003, Google realizó un cambio para producir un índice "complementario" que sirvió como una rama o unidad periférica que cumplía el propósito del índice principal y aumentaba la eficiencia general al indexar una parte de la web.

Florida y ordenando

La era del baile de Google de 2003 fue el primer bloque importante de actualizaciones, pero a partir de la actualización de Florida más tarde ese año, las actualizaciones comenzaron a asumir nuevos roles y nuevos significados para la comunidad de marketing en línea.

  • La actualización de Florida. La actualización de Florida fue una de las primeras que realmente tuvo un impacto en la comunidad de marketing en línea. A pesar de que las actualizaciones hasta este punto habían abordado el spam común y los problemas de baja calidad, como los malos vínculos de retroceso y el exceso de palabras clave, Florida fue la primera revisión importante que puso fin a estas tácticas para siempre. Miles de sitios web cayeron en picado por usar estas técnicas de sombrero negro, y los webmasters estaban furiosos. Cualquier inversión en SEO de la vieja escuela ahora no tenía valor y, de repente, la gente comenzó a temer y respetar las actualizaciones de Google.
  • Austin. Austin fue diseñado para ser el bateador de limpieza para Florida, saliendo poco después en enero de 2004. Apuntó a prácticas de metadescripción de spam y texto oculto en la página, esencialmente perdiendo las pocas cosas que Florida perdió con su barrido limpio.
  • Brandy. Brandy fue el nombre que se le dio a un grupo de actualizaciones que se lanzaron poco después en febrero de 2004. En lugar de centrarse en limpiar el spam, Brandy se centró principalmente en mejorar el algoritmo de Google de forma inherente. Agregó nuevas capacidades semánticas, incluida la detección y el análisis de sinónimos, y comenzó una transformación de las antiguas prácticas de palabras clave de Google, sin mencionar la gran expansión del índice primario.
  • Allegra. Pasó un año antes de que se lanzara otra actualización de algoritmo (aunque hubo algunos cambios en Google mientras tanto, incluida la adición de enlaces Nofollow, que abordaré en breve). En febrero de 2005, surgió Allegra para penalizar nuevos tipos de enlaces sospechosos.
  • Borbón. La actualización de Bourbon, de nombre extraño, salió a la luz en mayo de 2005 para mejorar la capacidad de Google para evaluar la calidad del contenido. Hubo algunos cambios aquí, pero ninguno que los webmasters pudieran identificar específicamente.
  • Gilligan. Me pregunté si incluir a Gilligan aquí. En septiembre de 2005, los webmasters vieron un aumento en la volatilidad de la clasificación, que generalmente es un indicio de una actualización emergente, pero Google insistió en que no se había producido ninguna actualización.
  • Jagger. Jagger fue una actualización iterativa lanzada entre octubre y noviembre de 2005. Se dirigió a los practicantes de esquemas de enlaces como enlaces recíprocos y programas de backlinks pagados.

Mapas de sitio XML y nofollow

Aparte de la evaluación de contenido de Google y las actualizaciones de mejora general, esta era también estuvo al tanto del desarrollo de varias características nuevas que los optimizadores de búsqueda podrían utilizar para una mayor visibilidad del contenido.

  • Enlaces nofollow. Técnicamente, esta no era una actualización de Google, pero fue uno de los cambios más significativos en el panorama de los motores de búsqueda en general. Fue una colaboración en enero de 2005 entre Google, Microsoft y Yahoo lo que produjo este nuevo tipo de enlace: el enlace nofollow. Ahora, los webmasters podrían incluir una etiqueta en el back-end de su código ("nofollow") para indicar que un enlace no debe considerarse para pasar autoridad o PageRank. Es una forma de incluir un enlace con fines prácticos (como redirigir el tráfico u ofrecer una cita) sin citar formalmente una fuente para el índice de Google. Ayuda a las marcas a protegerse de la creación accidental de enlaces que parecen spam y, en general, mejora la calidad general de los enlaces en la web.
  • Búsqueda personalizada. Es difícil imaginar un tiempo antes de las funciones de búsqueda personalizadas, pero no fue hasta junio de 2005 que se desarrolló formalmente. Anteriormente, Google confiaba en algunos formularios enviados específicamente para ayudar a personalizar la búsqueda, pero con esta actualización, la compañía podría aprovechar su historial de búsqueda para brindarle fuentes más precisas. Por supuesto, la primera versión de esta función de personalización era, en el mejor de los casos, incompleta, pero las iteraciones posteriores refinarían y perfeccionarían la función que ahora todos damos por sentada.
  • Mapas del sitio XML. Los sitemaps son construcciones que ayudan a los webmasters a trazar formalmente todas las páginas e interconexiones de sus sitios web. Hasta junio de 2005 (al mismo tiempo que se estaba implementando la búsqueda personalizada), los webmasters confiaban en sus mapas de sitio HTML básicos tanto para ayudar a los usuarios a comprender el diseño de sus sitios como para ayudar a los motores de búsqueda a indexarlos correctamente. Aunque Google hace un buen trabajo al indexar cada página y comprender las conexiones entre ellas, es útil y más rápido cargar un mapa del sitio XML, un concepto que Google creó en junio de 2005. Ahora, crear, enviar y actualizar regularmente su mapa del sitio XML es un elemento básico de la optimización in situ.

XML Sitemaps

(Fuente de la imagen: Sitemaps.org)

  • Papá grande. La divertida actualización "Big Daddy" fue un poco más técnica que las actualizaciones que Google lanzó en el pasado. En lugar de centrarse en cuestiones cualitativas, como cómo manejar la consulta de un usuario o cómo clasificar el valor de un enlace, la actualización de Big Daddy se centró en los procesos técnicos que ocurren detrás de escena. Mejoró los procesos de canonicalización de Google, el manejo de redireccionamientos 301 y 302 y un puñado de otros problemas, y se implementó entre diciembre de 2005 y marzo de 2006.

Mapas, cambios SERP y etiquetas canónicas

Fue en esta época cuando Google comenzó a intensificar su juego con aún más características y funciones para sus usuarios, yendo más allá del llamado del deber de los motores de búsqueda para brindar a los usuarios una experiencia más amplia posible. Esta serie de actualizaciones se centró en brindar nuevos conceptos a los usuarios, en lugar de mejorar la infraestructura existente:

  • El amanecer de los mapas modernos. Google Maps ya existía desde hacía algunos años, pero el sistema no había sido muy relevante para el SEO. En octubre de 2005, Google decidió fusionar todos sus datos de mapas locales con los datos comerciales que tenía en su Local Business Center. La combinación resultante condujo a un formato casi moderno de búsqueda de empresas en mapas locales y ayudó a dar forma al SEO local en una forma diferente. Esta fusión aumentó en gran medida la relevancia de incluir su empresa en el Local Business Center de Google y obligó a más empresas a comenzar a pensar en sus estrategias de SEO locales.
  • Búsqueda universal. La actualización de la "búsqueda universal" fue la forma que tenía Google de reinventar sus SERP para una nueva era. El cambio más grande y más notable fue la introducción de un formato que se conoció como "búsqueda vertical", aunque se ha vuelto tan estandarizado que es difícil recordar cuando Google funcionaba sin él. En lugar de ofrecer solo una función de búsqueda que distribuye resultados basados ​​en la web, los usuarios ahora pueden alternar entre varios "tipos" diferentes de resultados, incluidas imágenes, noticias y mapas. Esto abrió nuevas puertas de visibilidad potencial para las empresas de todo el mundo y obligó a los webmasters a reconsiderar lo que calificaban como contenido indexable. Se lanzó en mayo de 2007.
  • Sugerir. Lo crea o no, Google Sugerir no salió hasta agosto de 2008. En un intento por mejorar la experiencia del usuario promedio, Google quería ofrecer más posibilidades de búsqueda derivadas de una consulta determinada. A medida que los usuarios escriben una consulta en el cuadro de búsqueda, Google sugeriría una lista de posibles extensiones y finales de la consulta, dando a los usuarios ramas de posibilidades para explorar. Fue y sigue siendo útil para los usuarios, pero también tuvo dos amplias implicaciones para los optimizadores de búsqueda. Primero, se convirtió en una herramienta increíble para la investigación de palabras clave, impulsando software como Ubersuggest para ayudar a los optimizadores de búsqueda a encontrar palabras clave mejores y diferentes para sus estrategias. En segundo lugar, llegaría a impulsar Google Instant, que describiré con más detalle más adelante.
  • La etiqueta canónica. En febrero de 2009, Google introdujo la etiqueta canónica, que fue increíblemente útil para solucionar problemas con contenido duplicado. Es un elemento relativamente simple de incluir en el back-end de su sitio que informa a Google qué versiones de una página deben indexarse ​​y cuáles deben evitarse. Sin él, si su sitio tiene dos versiones de una sola página (incluso sin querer, como con las distinciones http y https), podría registrarse como contenido duplicado e interferir con la visibilidad de su búsqueda.

Más ajustes

A lo largo de esta era, Google también presentó aún más actualizaciones de "ajustes", todas las cuales comprometieron algunos cambios menores en su algoritmo de búsqueda o mejoraron la experiencia del usuario de alguna manera. Estos son los más importantes a tener en cuenta:

  • Buffy. Google anunció a Buffy en junio de 2007, poco después de que una de sus ingenieros, Vanessa Fox, dejara la empresa. Estaba claro que la actualización tuvo un impacto significativo debido a la alta volatilidad, pero Google nunca reveló qué incluía realmente la actualización. Sin embargo, se dio a entender que se trataba de una acumulación de varias otras actualizaciones más pequeñas.
  • Dewey. Dewey fue la próxima actualización menor en el radar, que llegó a fines de marzo de 2008 y se inició en abril. Algunos profesionales sospecharon que esta era la forma en que Google impulsaba algunas de sus propias propiedades de marca, pero no había pruebas contundentes de ello.
  • Vince. Vince fue una de las actualizaciones más controvertidas de Google, que tuvo lugar en febrero de 2009, casi un año después de Dewey. Después del despliegue, las clasificaciones cambiaron (como siempre lo hacen), pero esta vez, los cambios parecieron favorecer a las grandes marcas y corporaciones. Ya es bastante difícil para las pequeñas y medianas empresas mantenerse competitivas en el mundo de la visibilidad de búsqueda (o al menos lo era en ese momento), por lo que muchos empresarios y especialistas en marketing se indignaron por los cambios, aunque eran menores.
  • Búsqueda en tiempo real. Aunque siempre hubo una sección de Noticias en Google, no fue hasta la actualización de búsqueda en tiempo real a finales de 2009 que Google pudo indexar noticias y artículos de las plataformas de redes sociales en tiempo real. Después de esta actualización, las nuevas historias y publicaciones se completarían instantáneamente en el índice de Google, lo que llevaría el contenido a los usuarios más rápido.
  • Lugares de Google. Aunque no tuvo mucho impacto en las SERPs o en la clasificación de las empresas, Google revisó su Local Business Center en abril de 2010. Tomó Google Places, previamente incorporado como una sección de Google Maps, y creó un centro Google Places específicamente designado. para que las empresas locales creen sus perfiles y publiciten sus establecimientos.
  • Auxilio. La actualización del día de mayo fue un cambio de nicho que aparentemente solo afectó el tráfico generado por las consultas de palabras clave de cola larga. Como explicó Matt Cutts, la actualización tenía la intención de disminuir la clasificación de los sitios que usaban contenido extenso, sin detalles o de baja calidad como un truco para clasificar más alto para las palabras clave de cola larga.
  • Cafeína. La cafeína es una de las actualizaciones más sustanciales de esta lista, y en realidad comenzó a implementarse como una vista previa en agosto de 2009, pero no se implementó por completo hasta los meses de verano de 2010. Fue otra mejora de infraestructura, aumentando la velocidad y eficiencia del algoritmo en lugar de cambiar directamente sus criterios de clasificación. Evidentemente, el cambio aumentó las velocidades de indexación y rastreo en más del 50 por ciento, y también aumentó la velocidad de los resultados de búsqueda.
  • Instante. Google Sugiere presagió el lanzamiento de Google Instant, que salió a la luz en septiembre de 2010. Con Instant, los usuarios podían obtener una vista previa de los resultados mientras escribían sus consultas, acortando la distancia entre la consulta de un usuario y los resultados completos.
  • Señales sociales. En correspondencia con el aumento de la popularidad de Facebook y otros sitios de redes sociales, Google agregó señales sociales como leves señales de clasificación para las autoridades de los sitios. Hoy, esta señal es débil, especialmente cuando se compara con el poder de los backlinks.
  • Reseñas negativas. Esta actualización fue un cambio simple a fines de diciembre de 2010 que abordó las preocupaciones de que las revisiones negativas pudieran conducir a un aumento en el rango debido a una mayor visibilidad.
  • Correcciones de atribución. Como una especie de precuela de Panda (que cubriré en profundidad en la siguiente sección), Google lanzó una actualización de atribución en enero de 2011. El objetivo era detener los raspadores de contenido y reducir la cantidad de contenido de spam en la web.

Panda y pingüino

Hasta ahora, hemos visto algunas actualizaciones, revisiones, cambios y adiciones importantes a la Búsqueda de Google, pero ahora estamos llegando a los pesos pesados. Dos de las actualizaciones más impactantes, comentadas y aún relevantes del algoritmo de clasificación de Google ocurrieron prácticamente una tras otra en 2011 y 2012, y ambas cambiaron para siempre la forma en que Google evalúa la autoridad.

La actualización de Panda

  • Los basicos. La forma más sencilla de describir la actualización de Panda es como un cambio algorítmico que aumentó la capacidad de Google para analizar la calidad del contenido. Obviamente, Google tiene un gran interés en brindar a los usuarios acceso al mejor contenido posible disponible en línea, por lo que quiere que los sitios con contenido de "alta calidad" tengan una clasificación más alta, pero ¿qué significa exactamente "alta calidad"? Las actualizaciones anteriores habían intentado resolver este dilema, pero no fue hasta Panda que Google pudo llevar este concepto a las grandes ligas.

La actualización se lanzó el 23 de febrero de 2011 y cambió fundamentalmente la forma en que los optimizadores de búsqueda operaban en línea. Esta actualización fue anunciada formalmente y explicada por Google; la compañía declaró que la actualización afectó aproximadamente el 12 por ciento de todas las consultas de búsqueda, que es un número enorme, en comparación con los cambios de algoritmo anteriores.

Profundizando en detalles más específicos, la actualización se centró en las granjas de contenido, que existían anteriormente para producir contenido sin sentido "esponjoso" para aumentar los rangos. También penalizó a los sitios con contenido que parecía estar escrito de manera poco natural o lleno de palabras clave y, en cambio, recompensó a los sitios que evaluó por tener contenido detallado, bien escrito y valioso.

En el transcurso de su implementación de meses, miles de sitios vieron caer en picado su clasificación y su tráfico, y la reacción fue intensa.

Google Panda Update

(Fuente de la imagen: Neil Patel)

  • Panda 2.0 y más. Todo lo que describí en el párrafo anterior se refiere solo a lo que se denomina retroactivamente Panda 1.0. Como seguimiento a esta actualización, Google lanzó otro cambio algorítmico, conocido como Panda 2.0 para la comunidad de SEO, en abril de 2011. La actualización pulió algunas de las adiciones que introdujo Panda 1.0 y agregó un puñado de nuevas señales para las consultas en inglés. .

Sin embargo, otro seguimiento, brevemente conocido como Panda 3.0 hasta que los usuarios se dieron cuenta de que palidecía en importancia a 1.0 y 2.0, se conoció como 2.1; estos cambios apenas se notaron. Siguió una ronda de más actualizaciones de Panda, de menor escala pero de naturaleza significativa, incluido Panda 2.2 en junio de 2011, 2.3 en julio, y así sucesivamente cada mes hasta octubre.

  • Panda 3.0 y ralentización. Existe algún tipo de debate sobre lo que realmente califica como Panda 3.0. Para algunos profesionales, 3.0 ocurrió en octubre de 2011, cuando Google anunció un estado de "flujo" para la actualización de Panda, que vio no menos de tres actualizaciones menores separadas trabajando juntas para afectar aproximadamente al 2 por ciento de las consultas.

For others, 3.0 happened in November 2011, when an update on November 18 th shook up rankings further, seemingly based on the quality of their sites' content.

  • The Panda dance. After the November 2011 update, new iterations of the Panda update seemed to settle into a groove. Each month, there would be some kind of new update, affecting a small percentage of queries, for more than a year. Some of these updates would be full-fledged algorithm changes, adding, subtracting, or modifying some component of the core Panda algorithm.

Others would merely be data refreshes, “rebooting” Panda's evaluation criteria. In any case, the number of Panda updates grew to be about 25 when Matt Cutts announced that in the future, monthly Panda updates would roll out over the course of 10 days or so, leading to a more seamless, rotating update experience for users and webmasters. This setup became known informally as the “Panda dance,” loosely referencing the Google dance of 2003.

  • Panda 4.0. After the monthly revolving door of the Panda dance, things stayed relatively quiet on the Panda front until May 2014, when an update that became known as the official Panda 4.0 was released.

It rolled out gradually, much like a Panda dance update, but was massive in scale, affecting about 7.5 percent of all queries. Evidence suggests it was both a fundamental algorithmic change and a data refresh, which lent power to the overall release.

Panda 4.1, a follow-up in September 2014, affected a hypothetical 3 to 5 percent of all search queries, but the typical slow rollout made it hard to tell. Panda 4.2 came in July 2015, but didn't seem to have much of an impact.

  • Lasting impact. Today, the Panda update is still one of the most important and influential segments of Google's ranking algorithm. Though it started as a separate branch algorithm, today it's a core feature of Google search, and most search optimizers recognize its criteria as the basis for their on-site content strategies.

Presumably, it's still being updated on a rolling, gradual basis, but it's hard to take a pulse of this because of the constant, slow updates and the fact that each successive update seems to be less significant.

Schema.org and other small updates

Between and surrounding the Panda and Penguin updates were a number of other small updates, including the introduction of Schema.org microformatting, now a major institution in the search world.

  • Schmea.org. Much in the same way they came together for nofollow links, Google, Microsoft, and Yahoo worked together to settle on a single standard for “structured data” on sites. This structured data is a format in the back end of a site that helps search engine bots decode and understand various types of data on the site. For example, there are specific types of Schema markups for various categories of information, such as people, places and things. Today, it's used primarily to draw information from sites to be used in the Knowledge Graph.

Schema

(Image Source: Schema.org)

  • Google+. Though currently, the social media platform seems somewhat obsolete, when Google launched it back in June 2011, it seemed to be the future of search engine optimization (SEO). Here was a social media platform and content distribution center connected directly into Google's own ranking algorithm; as a result, the platform saw 10 million signups in less than 2 weeks.

Unfortunately, it wasn't able to sustain this momentum of growth and today, Google+ doesn't bear any more impact on search ranks than any other social media platform.

  • Expanded sitelinks. In August 2011, Google changed the layout of certain page entries in SERPs to included what are known as “expanded sitelinks,” detailed links under the subheading of a master domain. These pages, often ones like About or Contact, could then be optimized for greater visibility.
  • Pagination fixes. Up until September 2011, pagination was a real problem for the Google ranking algorithm. Because there are multiple ways to paginate a series of pages on your site (such as when you have multiple pages of a blog), many duplicate content and canonicalization issues arose for webmasters. With this update, Google introduced new attributes specifically designed to better index multiple-page sections.
  • Freshness. The Freshness update came in November 2011, with Google proclaiming the update to affect 35 percent of all queries, though this number was never demonstrated. The goal of the update was to work in conjunction with Panda to prioritize “fresher,” newer content over old content.
  • The 10-packs. In a real departure from typical Google style, Matt Cutts announced the 10-pack of updates in November 2011 proactively and transparently. None of these updates were game-changers, but they did affect a number of different areas, including “official” pages getting a ranking boost and better use of structured data. Additional update “packs” followed in the coming months, but never revolutionized the search engine.
  • Ads above the fold. Though never named, a small update in January 2012 targeted sites that featured too many ads “above the fold”—what had become known in the industry as “top-heavy” sites. Instead, Google preferred sites with a more conservative ad strategy—or ones with no ads at all.
  • Venice. Venice was one of the first significant local updates, significantly increasing the relevance of local sites for corresponding local queries. It was a major boon for small businesses taking advantage of their local niches.
  • The pirate update. The pirate update was so named because it specifically targeted sites that allowed, encouraged, or facilitated piracy of copyrighted material. Any site that repeatedly received DCMA takedown requests would have their rankings dropped. A second iteration of the pirate update was released in October 2014.

The Penguin update

  • The basics. What Panda did for content, Penguin did for link building. In the weeks leading up to the release of Penguin, Google warned webmasters that there would be serious action taken to fight back against “over optimization,” the general nomenclature for any series of strategies designed to optimize a site to rank higher at the expense of user experience.

Subsequently, Penguin was formally released on April 24, 2012. The update targeted a number of different activities that could be qualified as black-hat practices. For example, it cracked down on keyword stuffing, the practice of artificially including unnatural keywords into links and content for the sole purpose of increasing rankings for those terms.

It also seriously improved Google's ability to detect “good” and “natural” backlinks versus unnatural or spammy ones. As a result, more than 3 percent of all search queries were affected, and webmasters went into the same outrage they did when Panda disrupted their ranking efforts.

Like Panda, it set a new tone for search optimization—one focused on quality over manipulation—and helped solidify Google as the leader in search it remains to be.

  • Initial boosts. Like Panda, Penguin needed some initial boosts to correct some of its early issues and sustain its momentum as a search influencer. The update that became known as Penguin 1.1 was released in May 2012, and served as more of a data refresh than an algorithmic modifier. However, it did confirm that Penguin was operating as an algorithm separate from Google's core search ranking algorithm, much in the way that Panda did in its early stages.

A third Penguin update came in October 2012, though it didn't seem to affect many queries (less than 1 percent).

  • Penguin 2.0. The next major Penguin update rolled out in May 2013, almost exactly one year after the original Penguin update was released. This one was officially numbered by Google, but it didn't bear as much of an impact as some professionals were anticipating. Though details were limited about the scope and nature of the update, it was speculated that this update focused more on page-level factors than its 1.0 counterpart.
  • Penguin 3.0. Due to the pattern of releases in May, most search optimizers anticipated there to be a Penguin 3.0 release in May 2014. However, it wasn't until October 2014 that we saw another refresh of the Penguin algorithm. Because the update was spread out over the course of multiple weeks, it's hard to say exactly how much of an impact it had, but it looks as though it was less than 1 percent of all queries, making it the weak link in the Penguin bunch.
  • Penguin 4.0. In September 2016, Google announced yet another Penguin update, suggesting that Penguin is now a part of Google's “core” algorithm. Over the next few weeks, Penguin 4.0 rolled out over several phases, devaluing bad links instead of penalizing sites and reversing some previous Penguin penalties. Since then, Penguin updates have been small refreshes, in the same vein as the Panda update.

Like Panda, Penguin still holds an esteemed reputation as one of the most significant branches of the Google search algorithm, and is responsible for the foundation of many SEO strategies.

The Knowledge Graph

The Knowledge Graph is a distinct section of indexed information within Google. Rather than indexing various sites and evaluating them for relevance to a given query, the Knowledge Graph exists to give users direct, succinct answers to their common questions. You've likely seen a box like this pop up when you Google something basic:

The Knowledge Graph

(Fuente de la imagen: Google)

The Knowledge Graph was rolled out as part of an update back in May 2012. When it was released, it only affected a small percentage of queries, as the Knowledge Graph's scope and breadth were both limited. However, Google has since greatly prioritized the value and prominence of the Knowledge Graph, and thanks to more websites utilizing structured markup, it has access to more information than ever before.

The next official Knowledge Graph expansion came in December 2012, when Google expanded the types of queries that could be answered with the KG and ported it to different major languages around the world. After that, an update in July 2013 radically increased the reach and prominence of the Knowledge Graph, raising the number of queries it showed up for by more than 50 percent. After this update, more than one-fourth of all searches featured some kind of Knowledge Graph display.

Since then, the prominence of rich answers and KG entries has been slowly and gradually increasing, likely due to the gradual nature of incoming knowledge and increasing capabilities of the algorithm. The Hummingbird update and its subsequent partner RankBrain (both of which I'll explain in coming sections) have also amplified the reach and power of the Knowledge Graph with their semantic analysis capabilities.

Actualización de dominios de coincidencia exacta

La actualización de dominios de coincidencia exacta fue una actualización aparentemente pequeña que afectó a un montón de consultas. Los dominios de coincidencia exacta son aquellos que coinciden exactamente con la redacción de la consulta de un usuario. En algunos casos, esto es muy valioso; Es probable que un usuario esté buscando esa marca exacta, pero en algunos casos, esto puede usarse como una forma engañosa de captar tráfico orgánico.

En consecuencia, Google reevaluó la forma en que manejó los casos de dominios de coincidencia exacta, lo que afectó a casi el 1 por ciento de las consultas y redujo la presencia de dominios de coincidencia exacta en más del 10 por ciento en las páginas de resultados de los motores de búsqueda.

Actualizaciones más pequeñas

Después de discutir extensamente las potencias de Panda y Penguin, todas las demás actualizaciones de los motores de búsqueda parecen más pequeñas en comparación. Sin embargo, ha habido algunas adiciones y modificaciones significativas en los últimos años, algunas de las cuales han abierto las puertas a oportunidades de visibilidad de búsqueda completamente nuevas.

Actualización del préstamo de día de pago

La actualización de Payday Loan se produjo alrededor de junio de 2013, y su propósito era penalizar a los sitios con intenciones dudosas o naturaleza fraudulenta. Como sugiere el nombre, el objetivo principal de estos sitios eran los sitios de “préstamos de día de pago” y otros sitios similares que intentan deliberadamente aprovecharse de los consumidores.

Los sitios pornográficos también fueron atacados. El principal mecanismo de exploración para esto fue evaluar ciertos tipos de esquemas de enlaces en un esfuerzo por reducir el spam en general. Para la mayoría de los propietarios de negocios legítimos, esta actualización no supuso una gran diferencia.

Los préstamos de día de pago también vieron iteraciones futuras, 2.0 y 3.0, en 2014, que se dirigieron a los mismos tipos de sitios.

Colibrí

Hummingbird fue, y sigue siendo, una hermosa y particularmente interesante actualización. Aunque muchos usuarios nunca lo notaron, cambió fundamentalmente la forma en que funciona la búsqueda de Google y continúa influyendo en ella hasta el día de hoy. Lanzada en algún momento alrededor de agosto de 2013 y reconocida formalmente a finales de septiembre, la actualización de Hummingbird fue un cambio de algoritmo central que mejoró la capacidad de Google para evaluar consultas, trabajando en el lado de la "relevancia" de la ecuación en lugar del lado de la "autoridad".

Específicamente, la actualización de Hummingbird cambió la forma en que Google ve las palabras clave en las consultas de los usuarios. En lugar de analizar las consultas en función de las palabras clave y frases individuales que contiene, la actualización de Hummingbird permite a Google descifrar semánticamente lo que un usuario intenta buscar y luego encontrar resultados que sirvan a esa intención en toda la web. Esto puede parecer una pequeña diferencia, y para la mayoría de las consultas, estos tipos de resultados son similares, pero ahora que existe, las estrategias muy centradas en palabras clave se han debilitado y el poder del contenido escrito de forma natural con señales de relevancia contextual ha aumentado incluso más lejos.

Hummingbird también ha sido importante para preparar el escenario para el futuro de los desarrollos de Google, como veremos pronto. Para empezar, ha impulsado el aumento de las búsquedas por voz realizadas por los usuarios; Las búsquedas por voz tienden a ser más complejas semánticamente que las consultas mecanografiadas y exigen una mayor comprensión semántica para obtener mejores resultados. Google también ha modificado Hummingbird con una actualización importante y revolucionaria más recientemente con RankBrain.

Caídas de autoría

Una de las mayores motivaciones para obtener una cuenta de Google+ y usarla para desarrollar contenido fue aprovechar el concepto de autoría que se desarrolló. La autoría era una forma de incluir su nombre y rostro (en otras palabras, su marca personal) en los resultados de búsqueda de Google, junto con todo el material que había escrito.

Durante un tiempo, pareció una gran ventaja de SEO; los artículos escritos con autoría a través de Google+, sin importar el sitio al que estuvieran destinados, aparecerían de manera más prominente en los resultados de búsqueda y verían tasas de clics más altas, y claramente Google estaba invirtiendo mucho en esta función.

Author Rank

(Fuente de la imagen: Dan Stasiewski)

Pero a partir de diciembre de 2013, Google comenzó a restar importancia a la función. Las exhibiciones de autoría disminuyeron en más del 15 por ciento, sin una motivación explicada para el retroceso.

En junio de 2014, esta actualización fue seguida por un cambio aún más masivo: las fotos y los disparos a la cabeza se eliminaron por completo de los resultados de búsqueda según la autoría. Luego, el 28 de agosto de 2014, la autoría se eliminó por completo como concepto de la búsqueda de Google.

En muchos sentidos, esta fue la sentencia de muerte para Google+; A pesar de un impulso inicial, la plataforma estaba experimentando una disminución de los números y un compromiso estancado. Aunque a los optimizadores de búsqueda les encantó, no logró captar comercialmente de manera significativa.

Hoy en día, la plataforma todavía existe, pero en una forma muy diferente, y nunca ofrecerá el mismo nivel de beneficios de SEO que una vez prometió.

Paloma

Hasta que Pigeon se lanzó en julio de 2014, Google no había jugado mucho con la búsqueda local. La búsqueda local operaba en un algoritmo separado del algoritmo nacional, y había jugado con varias integraciones y características para empresas locales, como Maps y Google My Business, pero los fundamentos permanecieron más o menos iguales durante años.

Pigeon introdujo una serie de cambios diferentes en el algoritmo local. Para empezar, acercó la búsqueda local y nacional; Después de Pigeon, las señales de autoridad nacional, como las que provienen de backlinks de alta autoridad, se volvieron más importantes para clasificar en los resultados locales.

El diseño de los resultados locales cambió (aunque anteriormente y desde entonces han pasado por muchos cambios de diseño diferentes), y la forma en que Google manejó las señales de ubicación (principalmente desde dispositivos móviles y otras señales habilitadas para GPS) mejoró drásticamente. Quizás lo más importante es que Pigeon aumentó el poder de los sitios de reseñas de terceros como Yelp, aumentando la autoridad de las empresas locales con una gran cantidad de reseñas positivas e incluso aumentando el rango de las páginas de sitios de reseñas de terceros.

Fue un movimiento poco común para Google, ya que se consideró una respuesta parcial a las quejas de Yelp y otros proveedores de que sus páginas de reseñas locales no estaban obteniendo suficiente visibilidad en los motores de búsqueda. En cualquier caso, Pigeon fue una gran victoria para los dueños de negocios locales.

Actualizaciones continuas de Panda y Penguin

Anteriormente hablé de Panda y Penguin en su sección respectiva, pero vale la pena llamar la atención nuevamente. Panda y Penguin no fueron actualizaciones únicas de las que se puede olvidar; son características continuas del algoritmo central de Google, por lo que es importante tenerlas en el fondo de su mente.

Google está refinando constantemente la forma en que evalúa y maneja tanto el contenido como los enlaces, y estos elementos siguen siendo dos de las características más importantes de cualquier campaña de SEO. Aunque las actualizaciones se están produciendo de forma tan gradual que es difícil medirlas, el panorama de las búsquedas está cambiando.

Cambios de diseño y funcionalidad

Google también ha introducido algunos cambios significativos en el diseño y la funcionalidad; estos no necesariamente han cambiado la forma en que funciona el algoritmo de búsqueda de Google, pero han cambiado la experiencia del usuario promedio con la plataforma:

  • Artículos en profundidad. En agosto de 2013, Google publicó una actualización de artículos "en profundidad" e incluso anunció formalmente que lo estaba haciendo. Básicamente, los artículos en profundidad eran un nuevo tipo de resultado de búsqueda basado en noticias que podía aparecer para artículos que cubrían un tema, como puede imaginar, en profundidad. El contenido de formato largo y perenne recibió un impulso en visibilidad aquí, impulsando una tendencia a favorecer el contenido de formato largo que continúa hasta el día de hoy.
  • SSL. En agosto de 2014, Google anunció que ahora estaría dando un impulso de clasificación a los sitios que presentaban una capa de encriptación SSL (indicada con la designación HTTPS), claramente con la intención de mejorar la experiencia web del usuario promedio con mayores características de seguridad. Este anuncio se convirtió en "crítico" para que los sitios se actualicen para tener protección SSL, pero el aumento real de clasificación aquí resultó ser bastante pequeño.
  • La actualización de calidad. La actualización de calidad "oficial" ocurrió en mayo de 2015, y originalmente se describió como una "actualización fantasma" porque la gente no podía decir exactamente qué estaba sucediendo (o por qué). Eventualmente, Google admitió que esta actualización mejoró las "señales de calidad" que recibió de los sitios como una indicación de autoridad, aunque nunca profundizó en detalles sobre lo que realmente eran estas señales.
  • AdWords cambia. También ha habido varios cambios en el diseño y la funcionalidad de los anuncios a lo largo de los años, aunque he evitado hablar demasiado de ellos porque no afectan tanto a la búsqueda orgánica. En su mayoría, estos son ajustes en la visibilidad y la prominencia, como el posicionamiento y el formato, pero una reorganización importante en febrero de 2016 provocó algunos cambios importantes en las tasas de clics para ciertos tipos de consultas.

Mobilegeddon

Mobilegeddon es quizás la actualización con el nombre más entretenido de esta lista. En febrero de 2015, Google anunció que realizaría un cambio en su algoritmo de clasificación, favoreciendo los sitios que se consideraban "compatibles con dispositivos móviles" y penalizando a los que no lo eran el 21 de abril de ese mismo año. Aunque Google había estado favoreciendo lentamente los sitios con una mejor experiencia de usuario móvil, se consideró que esta era la actualización formal y estructurada para cimentar el deseo de Google de mejores sitios móviles en los resultados de búsqueda.

La comunidad de SEO se volvió loca por esto, exagerando el alcance y los efectos de la actualización como apocalípticos con su apodo no oficial (Mobilegeddon). En realidad, la mayoría de los sitios en este punto ya eran compatibles con dispositivos móviles, y aquellos que no tenían una gran cantidad de herramientas a su disposición para hacer su sitio más compatible con dispositivos móviles, como la herramienta útil y aún funcional de Google para probar literalmente y analizar la compatibilidad con dispositivos móviles de su sitio.

En general, "optimizado para dispositivos móviles" aquí significa principalmente que el contenido de su sitio se puede leer sin hacer zoom, que todo su contenido se carga adecuadamente en todo tipo de dispositivos y que todos sus botones, enlaces y funciones son fácilmente accesibles con la punta de los dedos en lugar de un mouse. Cuando se lanzó la actualización, no parecía muy impresionante; solo un pequeño porcentaje de consultas se vio afectado, pero las actualizaciones posteriores le han dado un mayor impacto.

Google también lanzó una actualización de Mobile 2.0 en mayo de 2016, pero dado que esto básicamente reforzó los conceptos ya introducidos con Mobile 1.0, los efectos de la actualización apenas se notaron para la mayoría de los propietarios de negocios y optimizadores de búsqueda.

La Era Moderna

Ahora, entramos en la era moderna de las actualizaciones de Google. Ya he mencionado un puñado de actualizaciones que han aparecido en los últimos dos años, pero ahora quiero echar un vistazo a los cambios de juego que tendrán el mayor impacto en cómo es probable que se desarrolle el motor de búsqueda en el futuro.

RankBrain

RankBrain llegó a los titulares cuando apareció por primera vez, o más bien, cuando Google lo anunció formalmente. Google anunció la actualización en octubre de 2015, pero en ese momento, el proceso ya había estado en marcha durante meses. Lo que hace que RankBrain sea especial es el hecho de que no necesariamente se ocupa de evaluaciones de autoridad o relevancia; en cambio, es una mejora de la actualización de Hummingbird, por lo que se ocupa de comprender mejor la semántica de las consultas de los usuarios.

Pero RankBrain es incluso más interesante que eso; en lugar de ser un cambio en el algoritmo de Google o incluso una adición, es un sistema de aprendizaje automático que aprenderá a actualizarse con el tiempo. Hummingbird trabaja tratando de analizar la intención del usuario de frases y consultas complejas, pero no todas son sencillas para que los algoritmos automáticos las analicen; por ejemplo, la frase "¿quién es el presidente actual de los Estados Unidos?" y la frase "¿quién es el tipo que dirige el país en este momento?" Básicamente están preguntando lo mismo, pero lo último es mucho más vago.

RankBrain está diseñado para aprender las complejidades de la redacción del lenguaje y, finalmente, hacer un mejor trabajo al indagar en lo que los usuarios realmente buscan. Es muy importante porque es la primera vez que Google utiliza una actualización de aprendizaje automático y podría ser una indicación de hacia dónde quiere llevar la empresa su algoritmo de búsqueda en el futuro.

Actualizaciones de calidad

Google también ha lanzado una serie de lo que llama "actualizaciones de calidad", que modifican qué factores y señales indican lo que se determina como "contenido de calidad". La actualización de calidad de mayo de 2015 fue una de ellas, pero presumiblemente se han implementado otras actualizaciones, que tienen un impacto menor y pasan desapercibidas para los optimizadores de búsqueda.

Sin embargo, recientemente Google se ha abierto más sobre lo que realmente se considera "contenido de calidad", publicando y revisando regularmente un documento llamado las pautas del evaluador de calidad de búsqueda. Si aún no lo ha leído, le recomiendo que lo revise. Mucho de esto es de sentido común, o es familiar si conoces los conceptos básicos de SEO, pero hay algunas gemas ocultas que vale la pena explorar por ti mismo.

Con respecto al spam, Google ha lanzado dos nuevas actualizaciones en los últimos dos años para combatir las tácticas y prácticas de sombrero negro que afectan negativamente las experiencias de los usuarios. En enero de 2017, Google lanzó una actualización que anunciaron cinco meses antes, denominada penalización por "intersticial intrusivo". Básicamente, la actualización penaliza a cualquier sitio que use intersticiales agresivos o ventanas emergentes para dañar la experiencia de un usuario.

Además, Google lanzó una actualización suave en marzo de 2017 llamada "Fred", aunque aún no está oficialmente confirmada. Los detalles son confusos, pero Fred fue diseñado para atacar sitios con contenido de bajo valor, o aquellos que practican tácticas de construcción de enlaces de sombrero negro, penalizándolos.

Zarigüeya

En septiembre de 2016, justo antes de Penguin 4.0, la comunidad de búsqueda notó una volatilidad significativa en la clasificación de las búsquedas locales. Aunque no ha sido confirmada por Google, la actualización informalmente llamada "Possum" atrajo una atención significativa. Parece que la actualización aumentó la importancia de la ubicación para el buscador real y actualizó las entradas de búsqueda local para incluir establecimientos que estaban fuera de los límites de la ciudad. Google también parece haber experimentado con el filtrado de ubicación, separando ubicaciones individuales que apuntan al mismo sitio.

Cambios en el fragmento

Google también ha estado experimentando con su presentación de "fragmentos destacados", las entradas de búsqueda independientes seleccionadas que aparecen para responder a sus preguntas de manera concisa, encima de los resultados de búsqueda orgánicos, pero debajo de los anuncios. Aunque en los últimos años se ha visto un aumento constante en la cantidad de fragmentos destacados, hubo una caída significativa en octubre de 2017; a la inversa, aumentaron los paneles del Gráfico de conocimiento, lo que sugiere que Google puede estar reequilibrando el uso de fragmentos destacados y el Gráfico de conocimiento como un medio para presentar información a los buscadores.

Más tarde, en noviembre de 2017, Google aumentó la longitud de los fragmentos de búsqueda para la mayoría de los resultados, aumentando el límite de caracteres a casi el doble de su límite anterior de 155.

Micro-actualizaciones

Google también parece estar favoreciendo las microactualizaciones, a diferencia de los gigantes que hicieron que los optimizadores de búsqueda temieran por sus trabajos y dominios durante años. En lugar de impulsar un cambio de algoritmo masivo en el transcurso de un fin de semana, Google está haciendo ajustes mucho más pequeños y los alimenta en el transcurso de semanas o incluso meses. Por ejemplo, en abril de 2017, aproximadamente la mitad de todos los resultados de búsqueda orgánica de la primera página eran HTTPS a mediados de abril, sin embargo, a fines de 2017, representaban el 75 por ciento de todos los resultados, lo que implica en gran medida una actualización de implementación lenta que favorece los sitios seguros. .

De hecho, es difícil saber cuándo Google está actualizando su algoritmo, a menos que anuncie el cambio directamente (lo cual sigue siendo raro, gracias a que Google quiere reducir el spam). Estas actualizaciones pasan desapercibidas, sin nombre y, en su mayor parte, sin preocupaciones. Noviembre de 2016, diciembre de 2016, febrero de 2017, mayo de 2017, septiembre de 2017 y noviembre de 2017 registraron una volatilidad significativa en la clasificación asociada con pequeñas actualizaciones.

El algoritmo central

Parte de la razón por la que Google está recortando las actualizaciones masivas y favoreciendo las mucho más pequeñas es porque su algoritmo central ya está haciendo un buen trabajo por sí solo. Es una base de alta calidad para el motor de búsqueda y claramente está haciendo un gran trabajo al brindarles a los usuarios exactamente lo que están buscando; solo piense en todas las veces que usa la búsqueda de Google a diario.

Especialmente ahora que Panda y Penguin se integran en el algoritmo central, Google ya no está en un lugar para realizar cambios importantes en la infraestructura, a menos que algún día decida cambiar fundamentalmente la forma en que pensamos sobre la búsqueda, y honestamente, no lo dejaría pasar. ellos.

Indexación de aplicaciones y otros desarrollos

Es interesante ver cómo Google ha aumentado su atención en la indexación y visualización de aplicaciones. Gracias al gran aumento de la popularidad y el uso de los dispositivos móviles, las aplicaciones se han vuelto mucho más relevantes y Google ha respondido.

Su primer paso fue permitir la indexación de aplicaciones, al igual que la indexación de sitios web, para permitir que las aplicaciones aparezcan para las consultas relevantes de los usuarios. Después de eso, implementó un proceso llamado vinculación profunda de aplicaciones, que permite a los desarrolladores vincularse a páginas específicas de contenido dentro de las aplicaciones para los usuarios que ya las tienen instaladas.

Por ejemplo, si tiene una aplicación de viajes, una búsqueda de Google en su dispositivo móvil podría, en teoría, vincularlo a la página de un destino específico dentro de esa aplicación.

Pero Google está empujando los límites aún más con un proceso que ahora se llama transmisión de aplicaciones. Ahora, ciertas aplicaciones se almacenan en los servidores de Google, por lo que puede acceder al contenido basado en aplicaciones en una búsqueda de Google sin siquiera tener la aplicación instalada en su dispositivo móvil. Esto podría ser un presagio del futuro del desarrollo de algoritmos de Google.

¿A dónde va desde aquí?

Con el conocimiento de la era moderna y el patrón de comportamiento que hemos visto en Google en el pasado, podemos mirar hacia el futuro e intentar predecir cómo se desarrollará Google.

  • ¿El fin de las actualizaciones de los grandes juegos? La primera conclusión importante de la desaceleración y la propensión de Google a actualizaciones más pequeñas y graduales es el hecho de que las actualizaciones que cambian el juego pueden haber llegado a su fin. Es posible que nunca veamos a otro Panda o Penguin cambiar las clasificaciones tanto como lo hicieron esas actualizaciones gemelas. Es posible que veamos evolucionar la búsqueda, nada menos que en formas nuevas y radicales, pero incluso estos cambios sucederán tan gradualmente que apenas se notarán. Sin embargo, es importante prestar atención a las nuevas actualizaciones a medida que se implementan para que pueda adaptarse a los tiempos.
  • Ampliación en curso de Knowledge Graph. Google está favoreciendo en gran medida su Gráfico de conocimiento, ya que las respuestas enriquecidas están aumentando de manera constante, especialmente en los últimos años. Se están volviendo más detallados, aparecen para más consultas y ocupan más espacio. Está claro que Google quiere poder responder a todas las preguntas de forma inmediata y específica para los usuarios, pero las implicaciones que esto podría tener para la visibilidad de búsqueda general y el tráfico orgánico aún no se han determinado.
  • Actualizaciones de aprendizaje automático. RankBrain es solo un indicador, pero es uno grande, y tiene sentido que Google quiera más algoritmos de aprendizaje automático para desarrollar su función de búsqueda principal. El aprendizaje automático lleva menos tiempo, cuesta menos mano de obra y, en última instancia, puede producir un mejor producto. Sin embargo, más actualizaciones de aprendizaje automático harían que la optimización de búsqueda sea menos predecible y más volátil en términos de cambios, por lo que definitivamente es una bolsa mixta.
  • La eventual muerte del sitio web tradicional. Gracias al impulso de Google por más funciones basadas en aplicaciones y prominencia de las aplicaciones, sin mencionar el aumento de la búsqueda por voz y los altavoces inteligentes, la muerte del "sitio web tradicional" puede acelerarse. Es poco probable que los sitios web desaparezcan en los próximos años, pero más allá de eso, los consumidores podrían estar listos para una revisión de la experiencia promedio en línea.
  • Nuevas funcionalidades y funciones. Por supuesto, Google probablemente desarrollará nuevas características, nuevas funciones y adaptaciones para nuevas tecnologías además de simplemente mejorar su producto principal. Estos desarrollos son algo impredecibles, ya que Google los mantiene en secreto y es difícil predecir qué tecnologías están en el horizonte hasta que realmente estén aquí.

Estas predicciones son especulativas y ambiguas, pero desafortunadamente esa es la naturaleza de la bestia. Históricamente, ha sido difícil saber para qué prepararse, porque ni siquiera los ingenieros de Google saben exactamente qué tecnologías adoptarán los usuarios y cuáles no.

Todo en el mundo de las búsquedas, desde las actualizaciones de algoritmos hasta el SEO y el diseño de la experiencia del usuario, exige un proceso continuo de retroalimentación y adaptación. Tienes que prestar atención, ser flexible y trabajar activamente si quieres estar a la vanguardia.

Google ha recorrido un largo camino en los últimos 19 años de su existencia, y es probable que tenga un largo camino de desarrollo por delante. Si se sintoniza con sus cambios, puede aprovecharlos y montar esas olas de visibilidad en beneficio de su propia marca.