História das atualizações de algoritmos do Google - um guia abrangente
Publicados: 2018-01-31No mundo da otimização de mecanismos de pesquisa (SEO). Poucos tópicos geraram tanta atenção coletiva quanto o desenvolvimento e surgimento de atualizações de algoritmos do Google. Essas adições de codificação ao algoritmo de classificação de pesquisa do Google, variando em tamanho e escopo, têm a capacidade de mudar fundamentalmente a maneira como o algoritmo funciona - e mudaram, periodicamente, ao longo dos anos.

Sempre que uma nova atualização é lançada, os profissionais de SEO ficam loucos, animados para cavar fundo e aprender o que mudou. E entre as atualizações, tendemos a esperar e especular sobre quais mudanças podem ocorrer no futuro.
Se você é novo no mundo do SEO, tudo isso pode parecer muito intimidante. O Google vem lançando atualizações há quase duas décadas, o que é muito para se atualizar - e não há sinais de que seu ímpeto diminua em um futuro próximo. O Google é uma empresa comprometida com a mudança e o desenvolvimento contínuos, e seu algoritmo é um reflexo disso; como profissionais de marketing de busca, precisamos estar dispostos a mudar e desenvolver junto com ele.
Para ajudar a educar os novatos no mundo de SEO, fornecer uma atualização para aqueles de nós que estão no meio dele e estabelecer uma base com a qual possamos prever o futuro dos desenvolvimentos do Google, reuni este histórico abrangente de atualizações do Google para o seu lendo ou folheando o prazer.
Índice
+ Noções básicas sobre atualizações do Google
+ O início da era
+ Panda e Pinguim
+ Atualizações menores
+ A Era Moderna
Noções básicas sobre atualizações do Google
Em primeiro lugar, quero abordar algumas noções básicas sobre as atualizações do Google. Por causa da atenção cada vez maior que recebem de profissionais de SEO, bem como de webmasters, profissionais de marketing e empreendedores em geral, alguns equívocos se desenvolveram com o tempo.
Como funcionam as atualizações
Você provavelmente entende bem a ideia por trás de uma atualização do Google de uma perspectiva conceitual. Definitivamente, você está familiarizado com a pesquisa do Google em geral; sua função principal é fornecer aos usuários uma lista dos melhores e mais relevantes resultados para suas consultas de pesquisa - e, a menos que você seja um usuário fanático do Bing, provavelmente concordará que está fazendo um bom trabalho.
Mas nem sempre foi um sistema tão impressionante como é hoje. Os resultados da pesquisa são geralmente calculados com base em duas grandes categorias de fatores: relevância e autoridade .
A relevância de um resultado é determinada avaliando o quão bem o conteúdo de um site corresponde à intenção do usuário; Antigamente, isso dependia de um sistema estrito de correspondência de palavras-chave de um para um que buscava páginas da web que usavam um termo de palavra-chave específico mais do que seus contemporâneos. A autoridade de um site era determinada pelo PageRank, mas depois de seu desaparecimento, surgiram outras métricas de terceiros, como Classificação de Domínio e Autoridade de Domínio. Esses medidores analisam os perfis de backlink dos sites para determinar como eles se relacionam com outros sites e autoridades.
Esses dois sistemas são atualizados com frequência, à medida que o Google descobre maneiras novas, mais sofisticadas e menos exploráveis de avaliar a relevância e a autoridade. Ele também encontra novas maneiras de apresentar informações em suas páginas de resultados do mecanismo de pesquisa (SERPs) e adiciona novos recursos para tornar a vida dos pesquisadores mais fácil.
Quando o Google decide criar uma atualização, dependendo do tamanho, ela pode ser enviada diretamente para o algoritmo principal ou ser publicada como uma espécie de branch de teste, para ser avaliada quanto à eficácia e funcionalidade.
De qualquer forma, a atualização pode ser aprimorada com iterações subsequentes ao longo do tempo. Às vezes, o Google anuncia essas mudanças com antecedência, permitindo que os webmasters saibam o que podem esperar da atualização, mas na maioria das vezes, elas acontecem silenciosamente e só sabemos de sua existência por causa das mudanças que vemos e medimos nas SERPs.
As atualizações são importantes porque afetam o funcionamento da pesquisa em geral, incluindo a forma como o seu site é exibido e como os usuários interagem com ele.
Como as atualizações afetam o SEO
A percepção comum é que as atualizações são más notícias para o SEO. Eles são considerados ruins para o negócio de SEO, prejudicando os planos mais bem elaborados dos otimizadores de ganhar posições mais altas para seus respectivos sites e causando pânico em massa quando aparecem e esmagam os rankings conquistados com dificuldade de todos.

(Fonte da imagem: SearchEngineLand)
Há alguma verdade nisso; as pessoas tendem a entrar em pânico quando uma nova atualização do Google causa uma mudança significativa na forma como as classificações são exibidas. No entanto, as atualizações não são simplesmente uma forma de o Google interferir e prejudicar o burburinho de SEO de todos; eles são peças complicadas de maquinário algorítmico projetado para fazer um trabalho melhor no fornecimento de informações de qualidade aos usuários do Google.
Conseqüentemente, eles têm um efeito enorme no SEO, mas não é de todo ruim.
- Volatilidade de classificação. Primeiro, quase sempre há alguma volatilidade de classificação quando uma nova atualização é lançada, mas por alguma razão, isso se tornou associado a quedas de classificação e penalidades. Sim, “penalidades” podem surgir das atualizações do Google à medida que o Google diminui a autoridade de sites que participam de certas ações que considera de baixa qualidade (como atividades ilegais), mas se os sites só fossem penalizados na classificação, o que aconteceria com os SERPs ? A realidade é que alguns sites caem no ranking e outros sobem à medida que são recompensados por participar de estratégias e ofertas de maior qualidade. No geral, essa volatilidade tende a ser modesta; não é tão grave como a maioria das pessoas pensa que é.
- Influência nas melhores práticas. As atualizações do Google também ajudam os otimizadores de pesquisa a reavaliar e redefinir suas práticas recomendadas para o sucesso da visibilidade online. Quando o Google lança uma nova atualização, geralmente é para melhorar algum elemento da experiência do usuário online, como quando melhora sua capacidade de avaliar o conteúdo “bom”. Quando isso acontece, os profissionais de marketing de pesquisa podem aprender com a atualização e melhorar seu próprio fornecimento de conteúdo aos usuários. É verdade que alguns otimizadores estão perpetuamente à frente da curva e nem todas as atualizações de algoritmo afetam diretamente os webmasters, mas como regra geral, as atualizações são um meio de progressão na indústria.
- Novos recursos para brincar. Algumas atualizações do Google não interferem nas avaliações de autoridade ou relevância; em vez disso, eles adicionam funções inteiramente novas à Pesquisa Google. Por exemplo, o Mapa de conhecimento do Google surgiu como uma forma totalmente nova de fornecer aos usuários informações sobre os tópicos que eles escolheram. Agora, todos nós nos acostumamos com a ideia de obter informações instantâneas sobre quaisquer perguntas que fizermos ou quaisquer tópicos que escolhermos. Essas novas adições também representam novas oportunidades para ganhar visibilidade de pesquisa; por exemplo, é possível para os webmasters trabalharem para que suas marcas sejam apresentadas em mais entradas do Mapa de conhecimento, em vez de resultados de pesquisa puramente orgânicos.
- Reforçando velhas ideias. Muitas vezes, as atualizações do Google não lançam nada particularmente novo, mas existem como um reforço de uma ideia antiga que foi lançada anteriormente. Por exemplo, o Google ocasionalmente lançará novos recursos que avaliam a qualidade do conteúdo na web; isso não muda o fato de que a qualidade do conteúdo é um fator importante para determinar autoridade, mas refina como esses números são calculados. Conseqüentemente, muitas atualizações do Google não fornecem novas informações para os otimizadores de pesquisa, mas, em vez disso, dão a eles um maior reforço positivo de que as estratégias que eles adotaram estão no caminho certo.
Por que as atualizações são frequentemente ambíguas
Um dos elementos mais frustrantes das atualizações do Google é seu nível impressionante de ambigüidade, que se manifesta de várias formas diferentes:
- Ambiguidade de anúncio. Ocasionalmente, o Google anunciará suas atualizações com antecedência. Por exemplo, ele divulgou informações sobre sua atualização chamada “Mobilegeddon” bem antes da implementação real para dar aos webmasters tempo para atualizar seus sites para dispositivos móveis. No entanto, é mais comum que o Google lance suas atualizações em silêncio, confirmando a mudança em seu algoritmo sem contar a ninguém sobre isso.
- Efeitos nas classificações de pesquisa. Mesmo quando os otimizadores de pesquisa percebem a volatilidade na classificação e começam a investigar, o Google é notoriamente calado sobre a verdadeira natureza e extensão da atualização. Quando a empresa se desvia da norma e anuncia as atualizações com antecedência, geralmente descreve a natureza da atualização em geral, como afirmar que a atualização se destina a melhorar a avaliação da qualidade do conteúdo. Geralmente não entra em detalhes específicos sobre a codificação ou a real funcionalidade da atualização, mesmo quando solicitado por profissionais em busca de mais informações.
- Começos e fins. As atualizações nem sempre são implementadas tão rapidamente quanto um interruptor de luz sendo acionado. Em vez disso, eles tendem a ocorrer gradualmente; por exemplo, algumas atualizações são “lançadas” ao longo de um fim de semana antes que seus efeitos completos nas classificações de pesquisa sejam vistos. Em outros casos, o Google pode enviar uma atualização principal e, posteriormente, adicioná-la com novas iterações, modificações e versões.
Se o Google lança essas atualizações para melhorar a web, por que a empresa retém intencionalmente detalhes como esses dos webmasters? A resposta é bastante simples. O principal motivo para o Google lançar atualizações em primeiro lugar é melhorar a experiência geral do usuário.
Imagine que o Google libere os detalhes exatos de como classifica os sites; os webmasters se esforçariam para explorar essas informações com o único propósito de obter classificação, comprometendo a experiência do usuário. Encobrir essas informações em ambigüidade é uma medida defensiva para evitar que esse nível de manipulação ocorra.
Padrões e semelhanças
Como as atualizações do Google são tão ambíguas, uma das melhores ferramentas que temos como otimizadores de pesquisa é nossa capacidade de detectar padrões e semelhanças nessas atualizações. Isso não apenas nos dá uma melhor compreensão da motivação do Google e um conhecimento mais claro de todo o escopo dos efeitos de uma atualização, mas também nos permite fazer previsões mais significativas sobre quais atualizações podem vir no futuro.
- Padrões anuais. Geralmente, o Google lança várias atualizações no período de um ano, mas normalmente há pelo menos uma “grande” atualização por ano; esse não era o caso em 2015, e antes de 2011, a maioria das atualizações eram menores, mudanças mensais, então é difícil definir esse padrão definitivamente. Atualizações maiores, como Panda e Penguin, foram o assunto de revisitas anuais por um tempo, com versões 2.0 saindo quase exatamente um ano depois, mas o Google mudou recentemente este formato de lançamento para algo mais gradual. Muitas vezes, os profissionais de marketing de busca prevêem o tempo para os próximos lançamentos do Google em um determinado ano com base em informações anteriores.
- Atualizações em lote. O Google também tende a “agrupar” as atualizações, especialmente quando são pequenas. Se estiver fazendo uma grande mudança em seu algoritmo principal, isso não é possível, mas se estiver fazendo uma série de ajustes menores, ele normalmente os libera todos de uma vez como um pacote. Eles raramente vêm com um aviso ou uma descrição geral.
- Testando melhorias específicas. Melhorias específicas, como mudanças no layout de um SERPs, tendem a ser lançadas como um teste antes de serem implementadas para a comunidade em geral. Os usuários de um grupo demográfico específico, ou em uma área específica, podem relatar que viram a mudança antes que ela fosse comprometida em uma escala nacional completa. Então, alguns meses depois, o Google provavelmente fará a mudança com várias melhorias como a versão finalizada.
- Iterações e reiterações. A maioria das atualizações menores fala por si, mas para atualizações maiores, o Google precisa usar blocos de construção para concluir sua construção. Atualizações gigantes, que mudam o jogo, como o Panda e o Penguin, estão sujeitas a revisões, ajustes, atualizações de dados e até mesmo combinações, como quando o Panda foi incorporado ao algoritmo de classificação central do Google.
Convenções de nomenclatura
Já fiz referência a um punhado de diferentes atualizações nomeadas do Google, então gostaria de falar um minuto sobre essas convenções de nomenclatura de atualização. Algumas atualizações são formalmente nomeadas pelo Google; por exemplo, os principais algoritmos Panda e Penguin receberam nomes formais e oficiais para que pudessem ser facilmente compreendidos e discutidos pelos membros da comunidade. No entanto, como o Google é silencioso sobre a maioria de seus lançamentos, apenas um punhado de atualizações obtém nomes oficiais.
Em vez disso, é o poder coletivo de uma comunidade que geralmente leva a um nome. Nos primeiros dias das atualizações do Google, a comunidade do Web Master World se encarregou de nomear as atualizações que, de outra forma, seriam lançadas de maneira informal e silenciosa. Às vezes, esses nomes eram baseados em descritores básicos, como o nome da cidade onde a atualização foi anunciada, e outras vezes, eles assumiam nomes humanos como furacões.
Hoje, a maioria dos nomes de atualização emergem da comunidade de SEO conforme os líderes tentam descrever o que está acontecendo (como com a atualização do Mobilegeddon sugestivamente intitulada) ou aderir ao hábito do Google de nomear arbitrariamente as atualizações após animais que começam com "P" (como com Pombo, Panda e Pinguim). As atualizações sequenciais são normalmente mantidas em ordem numérica, como você pode imaginar.
À medida que entramos na seção principal deste artigo, onde detalho cada uma das atualizações significativas do Google, quero avisar que essas atualizações estão agrupadas contextualmente. Na maioria das vezes, eles serão mantidos em ordem cronológica, mas pode haver desvios com base na respectiva categoria de cada atualização.
O início da era
Agora é hora de mergulhar nas atualizações reais que transformaram o Google no poderoso algoritmo de busca universal que é hoje.
Atualizações pré-2003
Embora o Google tenha sido lançado oficialmente em 1998, só em 2003 é que começou a fazer atualizações significativas em seu processo de pesquisa (ou, pelo menos, chamou atenção suficiente na comunidade de marketing online para que as pessoas se importassem com eles). Antes de 2003, havia um punhado de mudanças, tanto no processo de classificação quanto no layout visual do mecanismo de pesquisa, mas as coisas realmente começaram com a atualização de Boston em fevereiro de 2003.
- Boston e a dança do Google. A atualização de Boston é a primeira atualização com o nome Google, assim chamada porque foi anunciada na SES Boston. Não está claro exatamente o que essa atualização mudou, mas ela fez alguns ajustes significativos no algoritmo de classificação do Google, além de atualizar seus dados de índice. Mais importante, Boston deu o tom para a série de atualizações que viriam do Google, conhecida como “dança do Google”. Essas atualizações de dança do Google eram atualizações mensais pequenas, mas significativas, que mudaram várias coisas no algoritmo principal do Google, desde como a autoridade é calculada até as principais atualizações do índice.
- Cassandra. Cassandra foi uma das primeiras atualizações mensais, lançada em abril de 2003. Seu principal objetivo era começar a lutar contra os spammers de links, que exploravam o sistema de classificação de sites do Google com base no número de backlinks apontando para seu domínio. Também penalizou sites com texto oculto ou links ocultos, que eram ocorrências comuns em 2003.
- Dominic. Dominic ainda é um mistério. Quando foi lançado em maio de 2003 como a mais recente adição à dança do Google, os otimizadores de pesquisa pareceram notar seus efeitos proeminentes imediatamente. Embora não esteja claro a extensão total das mudanças, a contagem e os relatórios de backlinks parecem ter passado por uma grande reformulação.
- Esmerelda. Esmerelda é uma das últimas atualizações de dança do Google, lançada em junho de 2003. Era menos significativa do que Cassandra ou Dominic, mas parecia representar algumas mudanças importantes na infraestrutura do Google, à medida que as atualizações mensais eram substituídas por um fluxo mais contínuo.
- Fritz. Como Matt Cutts explica, Fritz é a última atualização oficial do Google Dance. Em vez disso, o Google começou a se empenhar em uma abordagem de atualização mais incremental e gradual.
- O índice suplementar. Em setembro de 2003, o Google fez uma mudança para produzir um índice “suplementar” que servia como uma filial ou unidade periférica atendendo ao propósito do índice principal e aumentando a eficiência geral indexando uma parte da web.
Flórida e arrumando
A era do Google Dance de 2003 foi o primeiro grande bloco de atualizações, mas começando com a atualização da Flórida no final daquele ano, as atualizações começaram a assumir novos papéis e novos significados para a comunidade de marketing online.
- A atualização da Flórida. A atualização da Flórida foi uma das primeiras a realmente causar um impacto na comunidade de marketing online. Embora as atualizações até agora tivessem abordado o spam comum e os problemas de baixa qualidade, como backlinks ruins e excesso de palavras-chave, a Flórida foi a primeira grande reforma que pôs fim a essas táticas para sempre. Milhares de sites despencaram por usar essas técnicas de chapéu preto, e os webmasters ficaram furiosos. Quaisquer investimentos em SEO da velha escola agora eram inúteis e, de repente, as pessoas começaram a temer e respeitar as atualizações do Google.
- Austin. Austin foi projetado para ser o rebatedor de limpeza da Flórida, saindo um pouco depois, em janeiro de 2004. Ele tinha como alvo práticas de metadescrição com spam e texto oculto na página, essencialmente perdendo as poucas coisas que a Flórida deixou passar com sua limpeza.
- Conhaque. Brandy foi o nome dado a um conjunto de atualizações que foram lançadas logo em seguida, em fevereiro de 2004. Em vez de se concentrar na limpeza de spam, Brandy se concentrou principalmente em melhorar o algoritmo do Google inerentemente. Ele adicionou novos recursos semânticos - incluindo detecção e análise de sinônimos - e iniciou uma transformação das antigas práticas de palavras-chave do Google, sem mencionar a grande expansão do índice primário.
- Allegra. Um ano depois, outra atualização de algoritmo foi lançada (embora tenha havido algumas mudanças no Google nesse ínterim, incluindo a adição de links Nofollow, que abordarei em breve). Em fevereiro de 2005, a Allegra surgiu para penalizar novos tipos de links suspeitos.
- Bourbon. A atualização Bourbon estranhamente chamada saiu em maio de 2005 para melhorar a capacidade do Google de avaliar a qualidade do conteúdo. Houve algumas mudanças aqui, mas nenhuma que os webmasters pudessem identificar especificamente.
- Gilligan. Eu questionei se deveria incluir Gilligan aqui. Em setembro de 2005, os webmasters viram um aumento na volatilidade do ranking, o que geralmente é uma indicação do surgimento de uma atualização, mas o Google insistiu que nenhuma atualização havia ocorrido.
- Jagger. Jagger foi uma atualização iterativa lançada entre outubro e novembro de 2005. Ele tinha como alvo os praticantes de esquemas de link como links recíprocos e programas de backlink pagos.
Sitemaps Nofollow e XML
Além da avaliação de conteúdo do Google e das atualizações gerais de melhoria, esta era também estava a par do desenvolvimento de vários novos recursos que os otimizadores de pesquisa podiam utilizar para maior visibilidade do conteúdo.
- Links Nofollow. Esta não foi tecnicamente uma atualização do Google, mas foi uma das mudanças mais significativas no panorama dos mecanismos de pesquisa em geral. Foi uma colaboração em janeiro de 2005 entre Google, Microsoft e Yahoo que produziu esse novo tipo de link - o link nofollow. Agora, os webmasters podem incluir uma tag no back-end de seu código (“nofollow”) para indicar que um link não deve ser considerado para aprovação de autoridade ou PageRank. É uma forma de incluir um link para fins práticos (como redirecionar tráfego ou oferecer uma citação) sem citar formalmente uma fonte para o índice do Google. Ajuda as marcas a se protegerem contra a criação acidental de links que parecem spam e, geralmente, melhora a qualidade geral dos links na web.
- Pesquisa personalizada. É difícil imaginar uma época antes dos recursos de pesquisa personalizados, mas foi só em junho de 2005 que eles foram desenvolvidos formalmente. Anteriormente, o Google confiava em alguns formulários enviados especificamente para ajudar a personalizar a pesquisa, mas com essa atualização, a empresa poderia explorar seu histórico de pesquisa para fornecer fontes mais precisas. Obviamente, a versão inicial desse recurso de personalização era, na melhor das hipóteses, incompleta, mas as iterações posteriores refinariam e aperfeiçoariam o recurso que agora consideramos natural.
- Sitemaps XML. Sitemaps são construções que ajudam os webmasters a traçar formalmente todas as páginas e interconexões de seus sites. Até junho de 2005 (ao mesmo tempo em que a pesquisa personalizada estava sendo lançada), os webmasters confiavam em seus sitemaps HTML básicos para ajudar os usuários a entender o layout de seus sites e para ajudar os mecanismos de pesquisa a indexá-lo corretamente. Embora o Google faça um bom trabalho ao indexar todas as páginas e compreender as conexões entre elas, é útil e mais rápido enviar um mapa do site XML, um conceito que o Google criou em junho de 2005. Agora, criar, enviar e atualizar regularmente o seu mapa do site XML é um elemento básico da otimização no local.

(Fonte da imagem: Sitemaps.org)
- Paizão. A atualização divertidamente chamada de “Big Daddy” foi um pouco mais técnica do que as atualizações que o Google lançou no passado. Em vez de focar em questões qualitativas, como como lidar com uma consulta do usuário ou como classificar o valor de um link, a atualização do Big Daddy se concentrou nos processos técnicos que acontecem nos bastidores. Ele melhorou os processos de canonização do Google, o tratamento de redirecionamentos 301 e 302 e vários outros problemas, implementados entre dezembro de 2005 e março de 2006.
Mapas, alterações SERP e tags canônicas
Foi nessa época que o Google começou a intensificar seu jogo com ainda mais recursos e funções para seus usuários, indo além do dever dos motores de busca para oferecer aos usuários uma experiência mais ampla possível. Esta série de atualizações foi focada em trazer novos conceitos aos usuários, em vez de melhorar a infraestrutura existente:
- O alvorecer dos mapas modernos. O Google Maps já existia há alguns anos, mas o sistema não era muito relevante para o SEO. Em outubro de 2005, o Google decidiu fundir todos os seus dados de mapas locais com os dados de negócios que mantinha em seu Local Business Center. A combinação resultante levou a um formato quase moderno de localização de empresas em mapas locais e ajudou a moldar o SEO local em uma forma diferente. Essa fusão aumentou muito a relevância de listar sua empresa no Local Business Center do Google e forçou mais empresas a começarem a pensar em suas estratégias locais de SEO.
- Pesquisa universal. A atualização da “busca universal” foi a maneira do Google de reimaginar seus SERPs para uma nova era. A maior e mais notável mudança foi a introdução de um formato que ficou conhecido como “pesquisa vertical”, embora tenha se tornado tão padronizado que é difícil lembrar quando o Google funcionava sem ele. Em vez de oferecer apenas uma função de pesquisa que distribuía resultados baseados na web, os usuários agora podiam alternar entre vários “tipos” diferentes de resultados, incluindo imagens, notícias e mapas. Isso abriu novas portas de visibilidade potencial para empresas em todos os lugares e forçou os webmasters a reconsiderar o que eles qualificaram como conteúdo indexável. Lançado em maio de 2007.
- Sugira. Acredite ou não, o Google Suggest só foi lançado em agosto de 2008. Em uma tentativa de melhorar a experiência do usuário médio, o Google queria oferecer mais possibilidades de pesquisa a partir de uma determinada consulta. Conforme os usuários digitam uma consulta na caixa de pesquisa, o Google sugere uma lista de extensões e terminações possíveis para a consulta, dando aos usuários ramos de possibilidades a serem explorados. Era - e continua a ser útil para os usuários, mas também teve duas implicações amplas para os otimizadores de pesquisa. Primeiro, ele se tornou uma ferramenta incrível para pesquisa de palavras-chave, potencializando um software como o Ubersuggest para ajudar os otimizadores de pesquisa a encontrar palavras-chave melhores e diferentes para suas estratégias. Em segundo lugar, viria a potencializar o Google Instant, que descreverei com mais detalhes posteriormente.
- A tag canônica. Em fevereiro de 2009, o Google introduziu a tag canônica, que foi incrivelmente útil para resolver problemas com conteúdo duplicado. É um elemento relativamente simples de incluir no back-end do seu site que informa ao Google quais versões de uma página devem ser indexadas e quais devem ser evitadas. Sem ele, se o seu site tiver duas versões de uma única página (mesmo não intencionalmente, como com as distinções http e https), ele pode ser registrado como conteúdo duplicado e interferir na visibilidade de sua pesquisa.
Mais ajustes
Ao longo dessa era, o Google também estava apresentando atualizações ainda mais “aprimoradas”, todas as quais comprometiam algumas pequenas alterações em seu algoritmo de pesquisa ou aprimoravam a experiência do usuário de alguma forma. Estes são os mais importantes a serem observados:
- Buffy. O Google anunciou Buffy em junho de 2007, logo após um de seus engenheiros, Vanessa Fox deixar a empresa. Ficou claro que a atualização teve algum impacto significativo devido à alta volatilidade, mas o Google nunca revelou o que a atualização realmente incluía. Ficou implícito, no entanto, que se tratava de uma acumulação de várias outras atualizações menores.
- Dewey. Dewey foi a próxima pequena atualização no radar, chegando no final de março de 2008 e começando em abril. Alguns profissionais suspeitaram que essa era a maneira do Google de divulgar algumas de suas propriedades de marca própria, mas não havia nenhuma evidência concreta disso.
- Vince. Vince foi uma das atualizações mais polêmicas do Google, ocorrida em fevereiro de 2009, quase um ano depois de Dewey. Após o lançamento, as classificações mudaram (como sempre fazem), mas, desta vez, as mudanças pareceram favorecer grandes marcas e corporações. Já é difícil o suficiente para pequenas e médias empresas se manterem competitivas no mundo da visibilidade de pesquisa (ou pelo menos era naquele ponto), tantos empreendedores e profissionais de marketing ficaram indignados com as mudanças, mesmo que fossem pequenas.
- Pesquisa em tempo real. Embora sempre houvesse uma seção de notícias no Google, não foi até a atualização da pesquisa em tempo real no final de 2009 que o Google foi capaz de indexar notícias e itens de plataformas de mídia social em tempo real. Após essa atualização, novas histórias e postagens seriam populadas instantaneamente no índice do Google, levando o conteúdo aos usuários com mais rapidez.
- Google Places. Embora não tenha tido muito impacto nos SERPs ou classificações de empresas, o Google reformulou seu Local Business Center em abril de 2010. Ele pegou o Google Places, anteriormente incorporado como uma seção do Google Maps, e criou um centro especificamente designado para o Google Places para que as empresas locais criem seus perfis e divulguem seus estabelecimentos.
- Socorro. A atualização do dia de maio foi uma mudança de nicho que aparentemente afetou apenas o tráfego gerado por consultas de palavras-chave de cauda longa. Conforme explicado por Matt Cutts, a atualização pretendia diminuir as classificações de sites que usavam conteúdo longo, sem detalhes ou de baixa qualidade como um truque para obter uma classificação mais elevada para palavras-chave de cauda longa.
- Cafeína. A cafeína é uma das atualizações mais substanciais desta lista e, na verdade, começou a ser lançada como uma prévia em agosto de 2009, mas não foi totalmente implementada até os meses de verão de 2010. Foi outra melhoria de infraestrutura, aumentando a velocidade e eficiência do algoritmo, em vez de alterar diretamente seus critérios de classificação. Evidentemente, a mudança aumentou as velocidades de indexação e rastreamento em mais de 50 por cento, e também aumentou a velocidade dos resultados de pesquisa.
- Instante. O Google Suggest prenunciou o lançamento do Google Instant, lançado em setembro de 2010. Com o Instant, os usuários podiam visualizar os resultados enquanto digitavam suas consultas, encurtando a distância entre a consulta do usuário e os resultados completos.
- Sinais sociais. Correspondendo ao aumento da popularidade do Facebook e de outros sites de mídia social, o Google acrescentou sinais sociais como leves sinais de classificação para as autoridades dos sites. Hoje, esse sinal é fraco, principalmente quando comparado ao poder dos backlinks.
- Comentários negativos. Esta atualização foi uma mudança simples no final de dezembro de 2010 que abordou as preocupações de que as avaliações negativas poderiam levar a um aumento na classificação devido ao aumento da visibilidade.
- Correções de atribuição. Como uma espécie de prequela do Panda (que abordarei em detalhes na próxima seção), o Google lançou uma atualização de atribuição em janeiro de 2011. O objetivo era parar os scrapers de conteúdo e reduzir a quantidade de conteúdo de spam na web.
Panda e pinguim
Até agora, vimos algumas atualizações, revisões, mudanças e adições significativas à Pesquisa Google, mas agora estamos chegando aos pesos pesados. Duas das atualizações mais impactantes, comentadas e ainda relevantes no algoritmo de classificação do Google aconteceram praticamente consecutivas em 2011 e 2012, e ambas mudaram para sempre a forma como o Google avalia a autoridade.
A atualização do Panda
- O básico. A maneira mais simples de descrever a atualização do Panda é como uma mudança algorítmica que aumentou a capacidade do Google de analisar a qualidade do conteúdo. Obviamente, o Google tem interesse em dar aos usuários acesso ao melhor conteúdo possível disponível online, então ele deseja que os sites com conteúdo de “alta qualidade” tenham uma classificação mais elevada - mas o que exatamente significa “alta qualidade”? Atualizações anteriores haviam tentado resolver esse dilema, mas foi somente com o Panda que o Google foi capaz de levar esse conceito às ligas principais.
A atualização foi lançada em 23 de fevereiro de 2011 e mudou fundamentalmente a forma como os otimizadores de pesquisa operavam online. Esta atualização foi anunciada formalmente e explicada pelo Google; a empresa afirmou que a atualização afetou cerca de 12 por cento de todas as consultas de pesquisa, o que é um número enorme, em comparação com as alterações anteriores do algoritmo.
Aprofundando-se em detalhes mais específicos, a atualização direcionou-se a farms de conteúdo, que anteriormente existiam para produzir conteúdo "fofo" sem sentido para aumentar as classificações. Ele também penalizou sites com conteúdo que parecia ter sido escrito de forma não natural ou repleto de palavras-chave e, em vez disso, recompensou os sites que avaliou como tendo conteúdo detalhado, bem escrito e valioso.
Ao longo de sua implementação de meses, milhares de sites viram suas classificações - e seu tráfego - despencar, e a reação foi intensa.


(Fonte da imagem: Neil Patel)
- Panda 2.0 e mais. Tudo o que descrevi no parágrafo anterior se refere apenas ao que é retroativamente referido como Panda 1.0. Como seguimento a esta atualização, o Google lançou outra mudança algorítmica, conhecida como Panda 2.0 para a comunidade SEO, em abril de 2011. A atualização poliu algumas das adições que o Panda 1.0 introduziu e adicionou um punhado de novos sinais para consultas em inglês .
Ainda outro follow-up, brevemente conhecido como Panda 3.0, até que os usuários perceberam que empalideceu em significância para 1.0 e 2.0, tornou-se conhecido como 2.1 - essas mudanças eram quase imperceptíveis. Seguiu-se uma rodada de mais atualizações do Panda, menores em escala, mas significativas em natureza, incluindo o Panda 2.2 em junho de 2011, 2.3 em julho e assim por diante a cada mês até outubro.
- Panda 3.0 e lentidão. Há algum tipo de debate sobre o que realmente se qualifica como Panda 3.0. Para alguns profissionais, 3.0 aconteceu em outubro de 2011, quando o Google anunciou um estado de “fluxo” para a atualização do Panda, que viu nada menos do que três pequenas atualizações separadas trabalhando juntas para afetar cerca de 2 por cento das consultas.
For others, 3.0 happened in November 2011, when an update on November 18 th shook up rankings further, seemingly based on the quality of their sites' content.
- The Panda dance. After the November 2011 update, new iterations of the Panda update seemed to settle into a groove. Each month, there would be some kind of new update, affecting a small percentage of queries, for more than a year. Some of these updates would be full-fledged algorithm changes, adding, subtracting, or modifying some component of the core Panda algorithm.
Others would merely be data refreshes, “rebooting” Panda's evaluation criteria. In any case, the number of Panda updates grew to be about 25 when Matt Cutts announced that in the future, monthly Panda updates would roll out over the course of 10 days or so, leading to a more seamless, rotating update experience for users and webmasters. This setup became known informally as the “Panda dance,” loosely referencing the Google dance of 2003.
- Panda 4.0. After the monthly revolving door of the Panda dance, things stayed relatively quiet on the Panda front until May 2014, when an update that became known as the official Panda 4.0 was released.
It rolled out gradually, much like a Panda dance update, but was massive in scale, affecting about 7.5 percent of all queries. Evidence suggests it was both a fundamental algorithmic change and a data refresh, which lent power to the overall release.
Panda 4.1, a follow-up in September 2014, affected a hypothetical 3 to 5 percent of all search queries, but the typical slow rollout made it hard to tell. Panda 4.2 came in July 2015, but didn't seem to have much of an impact.
- Lasting impact. Today, the Panda update is still one of the most important and influential segments of Google's ranking algorithm. Though it started as a separate branch algorithm, today it's a core feature of Google search, and most search optimizers recognize its criteria as the basis for their on-site content strategies.
Presumably, it's still being updated on a rolling, gradual basis, but it's hard to take a pulse of this because of the constant, slow updates and the fact that each successive update seems to be less significant.
Schema.org and other small updates
Between and surrounding the Panda and Penguin updates were a number of other small updates, including the introduction of Schema.org microformatting, now a major institution in the search world.
- Schmea.org. Much in the same way they came together for nofollow links, Google, Microsoft, and Yahoo worked together to settle on a single standard for “structured data” on sites. This structured data is a format in the back end of a site that helps search engine bots decode and understand various types of data on the site. For example, there are specific types of Schema markups for various categories of information, such as people, places and things. Today, it's used primarily to draw information from sites to be used in the Knowledge Graph.

(Image Source: Schema.org)
- Google+. Though currently, the social media platform seems somewhat obsolete, when Google launched it back in June 2011, it seemed to be the future of search engine optimization (SEO). Here was a social media platform and content distribution center connected directly into Google's own ranking algorithm; as a result, the platform saw 10 million signups in less than 2 weeks.
Unfortunately, it wasn't able to sustain this momentum of growth and today, Google+ doesn't bear any more impact on search ranks than any other social media platform.
- Expanded sitelinks. In August 2011, Google changed the layout of certain page entries in SERPs to included what are known as “expanded sitelinks,” detailed links under the subheading of a master domain. These pages, often ones like About or Contact, could then be optimized for greater visibility.
- Pagination fixes. Up until September 2011, pagination was a real problem for the Google ranking algorithm. Because there are multiple ways to paginate a series of pages on your site (such as when you have multiple pages of a blog), many duplicate content and canonicalization issues arose for webmasters. With this update, Google introduced new attributes specifically designed to better index multiple-page sections.
- Freshness. The Freshness update came in November 2011, with Google proclaiming the update to affect 35 percent of all queries, though this number was never demonstrated. The goal of the update was to work in conjunction with Panda to prioritize “fresher,” newer content over old content.
- The 10-packs. In a real departure from typical Google style, Matt Cutts announced the 10-pack of updates in November 2011 proactively and transparently. None of these updates were game-changers, but they did affect a number of different areas, including “official” pages getting a ranking boost and better use of structured data. Additional update “packs” followed in the coming months, but never revolutionized the search engine.
- Ads above the fold. Though never named, a small update in January 2012 targeted sites that featured too many ads “above the fold”—what had become known in the industry as “top-heavy” sites. Instead, Google preferred sites with a more conservative ad strategy—or ones with no ads at all.
- Venice. Venice was one of the first significant local updates, significantly increasing the relevance of local sites for corresponding local queries. It was a major boon for small businesses taking advantage of their local niches.
- The pirate update. The pirate update was so named because it specifically targeted sites that allowed, encouraged, or facilitated piracy of copyrighted material. Any site that repeatedly received DCMA takedown requests would have their rankings dropped. A second iteration of the pirate update was released in October 2014.
The Penguin update
- The basics. What Panda did for content, Penguin did for link building. In the weeks leading up to the release of Penguin, Google warned webmasters that there would be serious action taken to fight back against “over optimization,” the general nomenclature for any series of strategies designed to optimize a site to rank higher at the expense of user experience.
Subsequently, Penguin was formally released on April 24, 2012. The update targeted a number of different activities that could be qualified as black-hat practices. For example, it cracked down on keyword stuffing, the practice of artificially including unnatural keywords into links and content for the sole purpose of increasing rankings for those terms.
It also seriously improved Google's ability to detect “good” and “natural” backlinks versus unnatural or spammy ones. As a result, more than 3 percent of all search queries were affected, and webmasters went into the same outrage they did when Panda disrupted their ranking efforts.
Like Panda, it set a new tone for search optimization—one focused on quality over manipulation—and helped solidify Google as the leader in search it remains to be.
- Initial boosts. Like Panda, Penguin needed some initial boosts to correct some of its early issues and sustain its momentum as a search influencer. The update that became known as Penguin 1.1 was released in May 2012, and served as more of a data refresh than an algorithmic modifier. However, it did confirm that Penguin was operating as an algorithm separate from Google's core search ranking algorithm, much in the way that Panda did in its early stages.
A third Penguin update came in October 2012, though it didn't seem to affect many queries (less than 1 percent).
- Penguin 2.0. The next major Penguin update rolled out in May 2013, almost exactly one year after the original Penguin update was released. This one was officially numbered by Google, but it didn't bear as much of an impact as some professionals were anticipating. Though details were limited about the scope and nature of the update, it was speculated that this update focused more on page-level factors than its 1.0 counterpart.
- Penguin 3.0. Due to the pattern of releases in May, most search optimizers anticipated there to be a Penguin 3.0 release in May 2014. However, it wasn't until October 2014 that we saw another refresh of the Penguin algorithm. Because the update was spread out over the course of multiple weeks, it's hard to say exactly how much of an impact it had, but it looks as though it was less than 1 percent of all queries, making it the weak link in the Penguin bunch.
- Penguin 4.0. In September 2016, Google announced yet another Penguin update, suggesting that Penguin is now a part of Google's “core” algorithm. Over the next few weeks, Penguin 4.0 rolled out over several phases, devaluing bad links instead of penalizing sites and reversing some previous Penguin penalties. Since then, Penguin updates have been small refreshes, in the same vein as the Panda update.
Like Panda, Penguin still holds an esteemed reputation as one of the most significant branches of the Google search algorithm, and is responsible for the foundation of many SEO strategies.
The Knowledge Graph
The Knowledge Graph is a distinct section of indexed information within Google. Rather than indexing various sites and evaluating them for relevance to a given query, the Knowledge Graph exists to give users direct, succinct answers to their common questions. You've likely seen a box like this pop up when you Google something basic:

(Fonte da imagem: Google)
The Knowledge Graph was rolled out as part of an update back in May 2012. When it was released, it only affected a small percentage of queries, as the Knowledge Graph's scope and breadth were both limited. However, Google has since greatly prioritized the value and prominence of the Knowledge Graph, and thanks to more websites utilizing structured markup, it has access to more information than ever before.
The next official Knowledge Graph expansion came in December 2012, when Google expanded the types of queries that could be answered with the KG and ported it to different major languages around the world. After that, an update in July 2013 radically increased the reach and prominence of the Knowledge Graph, raising the number of queries it showed up for by more than 50 percent. After this update, more than one-fourth of all searches featured some kind of Knowledge Graph display.
Since then, the prominence of rich answers and KG entries has been slowly and gradually increasing, likely due to the gradual nature of incoming knowledge and increasing capabilities of the algorithm. The Hummingbird update and its subsequent partner RankBrain (both of which I'll explain in coming sections) have also amplified the reach and power of the Knowledge Graph with their semantic analysis capabilities.
Atualização de domínios de correspondência exata
A atualização de domínios de correspondência exata foi uma atualização aparentemente pequena que afetou uma tonelada de consultas. Domínios de correspondência exata são aqueles que correspondem exatamente ao texto da consulta de um usuário. Em alguns casos, isso é altamente valioso; um usuário provavelmente está procurando por aquela marca exata, mas em alguns casos, isso pode ser usado como uma forma enganosa de roubar tráfego orgânico.
Consequentemente, o Google reavaliou a maneira como lidou com casos de domínios de correspondência exata, afetando quase 1 por cento das consultas e reduzindo a presença de domínios de correspondência exata em mais de 10 por cento nas páginas de resultados de pesquisas.
Atualizações menores
Depois de discutir longamente as potências do Panda e do Penguin, todas as outras atualizações do mecanismo de pesquisa parecem menores em comparação. No entanto, houve algumas adições e modificações significativas nos últimos anos, algumas das quais abriram portas para oportunidades de visibilidade de pesquisa totalmente novas.
Atualização do empréstimo salarial
A atualização do Payday Loan veio por volta de junho de 2013 e seu objetivo era penalizar sites com intenções duvidosas ou naturezas de spam. Como o nome sugere, o principal alvo desses sites eram sites de “empréstimos salariais” e outros sites semelhantes que tentam deliberadamente tirar proveito dos consumidores.
Sites de pornografia também foram visados. O principal mecanismo de reconhecimento para isso foi avaliar certos tipos de esquemas de links em um esforço para reduzir o spam em geral. Para a maioria dos proprietários de negócios legítimos, essa atualização não fez muita diferença.
Os empréstimos salariais também tiveram iterações futuras - 2.0 e 3.0 - em 2014, direcionadas aos mesmos tipos de sites.
beija Flor
O Hummingbird foi, e continua a ser, uma atualização bonita e particularmente interessante. Mesmo que muitos usuários nunca tenham percebido, ela mudou fundamentalmente a forma como a pesquisa do Google funciona - e continua a influenciá-la até hoje. Lançada em algum momento por volta de agosto de 2013 e formalmente reconhecida no final de setembro, a atualização do Hummingbird foi uma alteração no algoritmo principal que melhorou a capacidade do Google de avaliar as consultas, trabalhando no lado da "relevância" da equação em vez do lado da "autoridade".
Especificamente, a atualização do Hummingbird mudou a maneira como o Google analisa as palavras-chave nas consultas dos usuários. Em vez de dissecar consultas com base nas palavras-chave e frases individuais que contém, a atualização do Hummingbird permite que o Google decifre semanticamente o que um usuário pretende pesquisar e, em seguida, encontre resultados que atendam a essa intenção em toda a web. Isso pode parecer uma pequena diferença - e para a maioria das consultas, esses tipos de resultados são semelhantes - mas agora que existe, as estratégias fortemente focadas em palavras-chave foram enfraquecidas, e o poder do conteúdo escrito naturalmente com sinais de relevância contextual aumentou ainda avançar.
O Hummingbird também foi importante para preparar o cenário para o futuro dos desenvolvimentos do Google, como veremos em breve. Para começar, tem alimentado o aumento nas pesquisas de voz realizadas pelos usuários; as pesquisas por voz tendem a ser mais semanticamente complexas do que as consultas digitadas e exigem uma maior compreensão semântica para melhores resultados. O Google também modificou o Hummingbird com uma atualização importante e revolucionária, mais recentemente, com o RankBrain.
Queda de autoria
Uma das maiores motivações para conseguir uma conta do Google+ e usá-la para desenvolver conteúdo foi aproveitar o conceito de Autoria que se desenvolveu. A autoria era uma forma de você incluir seu nome e rosto (em outras palavras, sua marca pessoal) nos resultados de pesquisa do Google, ao lado de todo o material de sua autoria.
Por um tempo, pareceu uma grande vantagem de SEO; artigos escritos com autoria por meio do Google+, independentemente do site a que se destinam, seriam exibidos com mais destaque nos resultados de pesquisa e teriam taxas de cliques mais altas, e claramente o Google estava investindo pesado nesse recurso.

(Fonte da imagem: Dan Stasiewski)
Mas a partir de dezembro de 2013, o Google começou a minimizar o recurso. As exibições de autoria caíram mais de 15 por cento, sem nenhuma motivação explicada para o recuo.
Em junho de 2014, essa atualização foi seguida por uma mudança ainda mais massiva - headshots e fotos foram removidos inteiramente dos resultados de pesquisa com base na autoria. Então, em 28 de agosto de 2014, a Autoria foi completamente removida como um conceito da pesquisa do Google.
De muitas maneiras, esse foi o toque de morte para o Google+; apesar de um impulso inicial, a plataforma estava registrando números em declínio e engajamento estagnado. Embora os otimizadores de pesquisa tenham adorado, ele falhou em pegar comercialmente de forma significativa.
Hoje, a plataforma ainda existe, mas em uma forma muito diferente, e nunca oferecerá o mesmo nível de benefícios de SEO que prometia.
Pombo
Até o lançamento do Pigeon em julho de 2014, o Google não tinha brincado muito com a pesquisa local. A pesquisa local operava em um algoritmo separado do algoritmo nacional e tinha brincado com várias integrações e recursos para empresas locais, como Maps e Google Meu Negócio, mas os fundamentos permaneceram mais ou menos os mesmos por anos.
O Pigeon introduziu uma série de mudanças diferentes no algoritmo local. Para começar, aproximou as pesquisas locais e nacionais; depois do Pigeon, os sinais da autoridade nacional, como aqueles provenientes de backlinks de alta autoridade, tornaram-se mais importantes para classificar nos resultados locais.
O layout dos resultados locais mudou (embora eles anteriormente e desde então tenham passado por muitas mudanças de layout diferentes), e a maneira como o Google lidou com as dicas de localização (principalmente de dispositivos móveis e outros sinais habilitados para GPS) melhorou drasticamente. Talvez o mais importante, o Pigeon aumentou o poder de sites de resenhas de terceiros como o Yelp, aumentando a autoridade das empresas locais com um grande número de resenhas positivas e até mesmo aumentando a classificação das páginas de sites de resenhas de terceiros.
Foi uma mudança rara para o Google, pois foi vista como uma resposta parcial às reclamações do Yelp e de outros provedores de que suas páginas de avaliação locais não estavam obtendo visibilidade suficiente nos mecanismos de busca. Em qualquer caso, o Pigeon foi uma grande vitória para os empresários locais.
Atualizações constantes do Panda e do Pinguim
Já falei sobre Panda e Penguin em suas respectivas seções, mas vale a pena chamar a atenção para eles novamente. O Panda e o Penguin não foram atualizações únicas que podem ser esquecidas; eles são recursos contínuos do algoritmo principal do Google, por isso é importante mantê-los em sua mente.
O Google está constantemente refinando a forma como avalia e lida com conteúdo e links, e esses elementos continuam sendo duas das características mais importantes de qualquer campanha de SEO. Embora as atualizações estejam acontecendo tão gradualmente que sejam difíceis de medir, o cenário de pesquisa está mudando.
Alterações de layout e funcionalidade
O Google também introduziu algumas alterações significativas de layout e funcionalidade; isso não mudou necessariamente a forma como o algoritmo de pesquisa do Google funciona, mas mudou a experiência do usuário médio com a plataforma:
- Artigos detalhados. Em agosto de 2013, o Google lançou uma atualização de artigos “aprofundada” e até anunciou formalmente que estava fazendo isso. Basicamente, os artigos detalhados eram um novo tipo de resultado de pesquisa baseado em notícias que poderia aparecer para artigos que cobrissem um tópico, como você pode imaginar, em profundidade. O conteúdo longo e perene ganhou visibilidade aqui, impulsionando uma tendência de favorecer o conteúdo longo que continua até hoje.
- SSL. Em agosto de 2014, o Google anunciou que agora estaria dando um impulso na classificação de sites que apresentassem uma camada de criptografia SSL (denotada com a designação HTTPS), claramente com a intenção de melhorar a experiência do usuário médio na web com recursos de segurança aumentados. Este anúncio foi considerado “crítico” para sites que passaram a ter proteção SSL, mas o aumento real de classificação aqui acabou sendo bem pequeno.
- A atualização de qualidade. A atualização de qualidade “oficial” aconteceu em maio de 2015 e originalmente foi descrita como uma “atualização fantasma” porque as pessoas não sabiam exatamente o que estava acontecendo (ou por quê). Por fim, o Google admitiu que essa atualização melhorou os “sinais de qualidade” que recebeu dos sites como uma indicação de autoridade, embora nunca tenha se aprofundado em detalhes sobre o que esses sinais realmente eram.
- Alterações no AdWords. Também houve várias mudanças no layout e na funcionalidade dos anúncios ao longo dos anos, embora eu tenha evitado falar muito sobre isso porque não afetam muito a pesquisa orgânica. Principalmente, esses são ajustes na visibilidade e destaque, como posicionamento e formatação, mas uma grande mudança em fevereiro de 2016 levou a algumas grandes mudanças nas taxas de cliques para certos tipos de consultas.
Mobilegeddon
Mobilegeddon é talvez a atualização com o nome mais divertido desta lista. Em fevereiro de 2015, o Google anunciou que faria uma mudança em seu algoritmo de classificação, favorecendo sites considerados “mobile friendly” e penalizando aqueles que não eram mobile em 21 de abril do mesmo ano. Embora o Google tenha lentamente favorecido sites com melhor experiência de usuário móvel, esta foi considerada uma atualização formal e estruturada para cimentar o desejo do Google por melhores sites móveis nos resultados de pesquisa.
A comunidade SEO enlouqueceu com isso, exagerando o alcance e os efeitos da atualização como apocalípticos com seu apelido não oficial (Mobilegeddon). Na realidade, a maioria dos sites a essa altura já era compatível com dispositivos móveis e aqueles que não o eram tinham muitas ferramentas à disposição para torná-los mais compatíveis com dispositivos móveis, como a ferramenta útil e ainda funcional do Google para testar literalmente e analise a compatibilidade do seu site com dispositivos móveis.
No geral, "otimizado para celular" aqui significa principalmente que o conteúdo do seu site pode ser lido sem zoom, todo o seu conteúdo é carregado de maneira adequada em todos os tipos de dispositivos e todos os seus botões, links e recursos são facilmente acessíveis com a ponta dos dedos em vez de um mouse. Quando a atualização foi lançada, não parecia muito impressionante; apenas uma pequena porcentagem das consultas foi afetada, mas as atualizações subsequentes causaram um impacto maior.
O Google também lançou uma atualização do Mobile 2.0 em maio de 2016, mas uma vez que isso basicamente reforçou os conceitos já introduzidos no Mobile 1.0, os efeitos da atualização foram quase imperceptíveis para a maioria dos proprietários de negócios e otimizadores de pesquisa.
A Era Moderna
Agora, entramos na era moderna das atualizações do Google. Já mencionei um punhado de atualizações que surgiram nos últimos dois anos ou mais, mas agora quero dar uma olhada nas mudanças de jogo que terão o maior impacto sobre como o mecanismo de pesquisa provavelmente se desenvolverá em o futuro.
RankBrain
O RankBrain ganhou as manchetes quando surgiu pela primeira vez - ou melhor, quando foi formalmente anunciado pelo Google. O Google anunciou a atualização em outubro de 2015, mas àquela altura, o processo já vinha acontecendo há meses. O que torna o RankBrain especial é o fato de que ele não lida necessariamente com avaliações de autoridade ou relevância; em vez disso, é um aprimoramento da atualização do Hummingbird, portanto, trata de um melhor entendimento da semântica das consultas do usuário.
Mas o RankBrain é ainda mais interessante do que isso; em vez de ser uma mudança no algoritmo do Google ou mesmo um acréscimo, é um sistema de aprendizado de máquina que aprenderá a se atualizar com o tempo. O Hummingbird funciona tentando analisar a intenção do usuário de frases e consultas complexas, mas nem todas elas são fáceis de serem analisadas por algoritmos automáticos; por exemplo, a frase “quem é o atual presidente dos Estados Unidos?” e a frase "quem é o cara que está governando o país agora?" estão basicamente perguntando a mesma coisa, mas a última é muito mais vaga.
O RankBrain foi projetado para aprender as complexidades do fraseado da linguagem, eventualmente fazendo um trabalho melhor ao pesquisar o que os usuários estão realmente procurando. É altamente significativo porque é a primeira vez que o Google usa uma atualização de aprendizado de máquina e pode ser uma indicação de onde a empresa deseja levar seu algoritmo de pesquisa no futuro.
Atualizações de qualidade
O Google também lançou uma série do que chama de “atualizações de qualidade”, que fazem alterações nos fatores e sinais que indicam o que é determinado como “conteúdo de qualidade”. A atualização de qualidade de maio de 2015 foi uma delas, mas outras atualizações presumivelmente foram lançadas, causando menos impacto e passando despercebidas pelos otimizadores de pesquisa.
No entanto, o Google recentemente abriu mais informações sobre o que realmente se qualifica como “conteúdo de qualidade”, publicando e revisando regularmente um documento chamado diretrizes do avaliador de qualidade de pesquisa. Se você ainda não leu, eu recomendo fortemente que você dê uma olhada. Muitos deles são coisas de senso comum ou são familiares se você conhece os fundamentos de SEO, mas existem algumas joias ocultas que vale a pena verificar por si mesmo.
Com relação ao spam, o Google lançou duas novas atualizações nos últimos dois anos para combater as táticas e práticas de chapéu preto que afetam negativamente as experiências dos usuários. Em janeiro de 2017, o Google lançou uma atualização anunciada cinco meses antes, chamada de penalidade “intersticial intrusiva”. Basicamente, a atualização penaliza qualquer site que use intersticiais ou pop-ups agressivos para prejudicar a experiência do usuário.
Além disso, o Google lançou uma atualização temporária em março de 2017 chamada “Fred”, embora ainda não esteja oficialmente confirmada. Os detalhes são nebulosos, mas Fred foi projetado para atingir sites com conteúdo de baixo valor ou aqueles que praticam táticas de criação de links de chapéu negro, penalizando-os.
Gambá
Em setembro de 2016, pouco antes do Penguin 4.0, a comunidade de pesquisa notou uma volatilidade significativa na classificação das pesquisas locais. Embora não confirmada pelo Google, a atualização informalmente chamada de “Possum” atraiu atenção significativa. Parece que a atualização aumentou a importância da localização para o pesquisador real e atualizou as entradas da pesquisa local para incluir estabelecimentos que estavam fora dos limites da cidade. O Google também parece ter experimentado a filtragem de local, separando locais individuais que apontam para o mesmo site.
Alterações de trecho
O Google também tem experimentado a apresentação de “snippets em destaque”, as entradas de pesquisa autônomas selecionadas que aparecem para responder às suas perguntas de forma concisa, acima dos resultados de pesquisa orgânica, mas abaixo dos anúncios. Embora os últimos anos tenham visto um aumento constante no número de trechos em destaque, houve uma queda significativa em outubro de 2017; por outro lado, os painéis do Knowledge Graph aumentaram, sugerindo que o Google pode estar reequilibrando seu uso de snippets em destaque e do Knowledge Graph como um meio de apresentar informações aos pesquisadores.
Mais tarde, em novembro de 2017, o Google aumentou o comprimento dos snippets de pesquisa para a maioria dos resultados, aumentando o limite de caracteres para quase o dobro do seu limite anterior de 155.
Micro-atualizações
O Google também parece favorecer as microatualizações, em oposição aos gigantes que fizeram os otimizadores de busca temer por seus empregos e domínios durante anos. Em vez de forçar uma mudança massiva de algoritmo ao longo de um fim de semana, o Google está fazendo ajustes muito menores e os alimentando ao longo de semanas ou até meses. Por exemplo, em abril de 2017, cerca de metade de todos os resultados de pesquisa orgânica da página um eram HTTPS em meados de abril, mas no final de 2017, eles representavam 75 por cento de todos os resultados, implicando fortemente em uma atualização de implementação lenta favorecendo sites seguros .
Na verdade, é difícil dizer quando o Google está mais atualizando seu algoritmo, a menos que anuncie a mudança diretamente (o que ainda é raro, graças ao Google querer reduzir o spam). Essas atualizações estão ficando sem nome, despercebidas e, na maioria das vezes, sem preocupação. Novembro de 2016, dezembro de 2016, fevereiro de 2017, maio de 2017, setembro de 2017 e novembro de 2017, todos viram uma volatilidade de classificação significativa associada a pequenas atualizações.
O algoritmo central
Parte da razão pela qual o Google está reduzindo as atualizações massivas e favorecendo as muito menores é porque seu algoritmo principal já está fazendo um trabalho tão bom por conta própria. É uma base de alta qualidade para o mecanismo de pesquisa e está claramente fazendo um ótimo trabalho ao oferecer aos usuários exatamente o que eles procuram - basta pensar em todas as vezes que você usa a pesquisa do Google diariamente.
Especialmente agora que o Panda e o Pinguim estão incluídos no algoritmo central, o Google não está mais em condições de fazer grandes mudanças na infraestrutura, a menos que um dia decida mudar fundamentalmente a maneira como pensamos sobre a pesquisa - e, honestamente, eu não colocaria isso no passado eles.
Indexação de aplicativos e outros desenvolvimentos
É interessante ver como o Google aumentou sua atenção na indexação e exibição de aplicativos. Graças ao grande aumento da popularidade e do uso de dispositivos móveis, os aplicativos se tornaram muito mais relevantes e o Google respondeu.
Sua primeira etapa foi permitir a indexação de aplicativos, assim como a indexação de sites, para permitir que os aplicativos apareçam para consultas relevantes do usuário. Depois disso, lançou um processo chamado app deep linking, que permite aos desenvolvedores criar um link para páginas específicas de conteúdo dentro de apps para usuários que já têm os apps instalados.
Por exemplo, se você tiver um aplicativo de viagens, uma pesquisa no Google em seu dispositivo móvel poderia teoricamente vinculá-lo a uma página de destino específica dentro desse aplicativo.
Mas o Google está indo ainda mais longe com um processo agora chamado de streaming de aplicativos. Agora, alguns aplicativos estão sendo armazenados nos servidores do Google, para que você possa acessar o conteúdo baseado em aplicativos em uma pesquisa do Google, mesmo sem ter o aplicativo instalado em seu dispositivo móvel. Isso pode ser um presságio do futuro do desenvolvimento de algoritmos do Google.
Onde isto vai dar?
Com o conhecimento da era moderna e o padrão de comportamento que vimos do Google no passado, podemos olhar para o futuro e tentar prever como o Google se desenvolverá.
- O fim das atualizações de grandes jogos? A primeira grande lição da desaceleração e propensão do Google para atualizações menores e mais graduais é o fato de que as atualizações revolucionárias podem ter chegado ao fim. Talvez nunca vejamos outro Panda ou Pinguim sacudir as classificações tanto quanto essas atualizações gêmeas. Podemos ver a pesquisa evoluir, não menos em novas formas radicais, mas mesmo essas mudanças acontecerão tão gradualmente que serão quase imperceptíveis. No entanto, ainda é importante prestar atenção às novas atualizações à medida que são lançadas para que você possa se adaptar com o tempo.
- Expansão contínua do Knowledge Graph. O Google está dando grande preferência ao seu Knowledge Graph, já que as respostas ricas estão ganhando destaque de forma constante, especialmente nos últimos anos. Eles estão ficando mais detalhados, estão aparecendo para mais consultas e estão ocupando mais espaço. É claro que o Google deseja responder a todas as perguntas imediatamente e especificamente para os usuários, mas as implicações que isso pode ter para a visibilidade geral da pesquisa e o tráfego orgânico ainda precisam ser determinadas.
- Atualizações de aprendizado de máquina. O RankBrain é apenas um indicador, mas é um grande, e só faz sentido que o Google queira mais algoritmos de aprendizado de máquina para desenvolver sua função de pesquisa principal. O aprendizado de máquina leva menos tempo, custa menos mão de obra e pode, no final das contas, produzir um produto melhor. No entanto, mais atualizações de aprendizado de máquina tornariam a otimização de pesquisa menos previsível e mais volátil em termos de mudanças, então é definitivamente uma mistura de coisas.
- A eventual morte do site tradicional. Graças à pressão do Google por mais recursos baseados em aplicativos e destaque no aplicativo, sem mencionar o aumento da busca por voz e dos alto-falantes inteligentes, a morte do “site tradicional” pode ser acelerada. É improvável que os sites desapareçam nos próximos anos, mas, além disso, os consumidores podem estar prontos para uma reformulação da experiência online média.
- Novos recursos e funções. Claro, o Google provavelmente irá desenvolver novos recursos, novas funções e acomodações para novas tecnologias, além de simplesmente melhorar seu produto principal. Esses desenvolvimentos são um tanto imprevisíveis, já que o Google os mantém sob sigilo e é difícil prever quais tecnologias estão no horizonte até que elas estejam realmente aqui.
Essas previsões são especulativas e ambíguas, mas infelizmente essa é a natureza da besta. Historicamente, é difícil saber para o que se preparar, porque nem mesmo os engenheiros do Google sabem exatamente quais tecnologias os usuários usarão e quais não.
Tudo no mundo da pesquisa - de atualizações de algoritmos a SEO e design de experiência do usuário - exige um processo contínuo de feedback e adaptação. Você precisa prestar atenção, permanecer flexível e trabalhar ativamente se quiser ficar à frente da curva.
O Google percorreu um longo caminho nos últimos 19 anos de sua existência e provavelmente ainda tem um longo caminho de desenvolvimento pela frente. Se você se sintonizar com suas mudanças, poderá aproveitá-las e pegar essas ondas de visibilidade para beneficiar sua própria marca.
