Logo E-Commerce Brasil

Teoria dos sub-algoritmos simultâneos em SEO

Por: Diego Ivo

Diego Ivo é fundador e CEO da Conversion, agência especialista em SEO (Search Engine Optimization), estrategista de marketing digital, especialista em crescimento orgânico, palestrante de diversos eventos no Brasil e no exterior. Foi um dos brasileiros a palestrar no eWMS, evento de Philip Kotler.

O nome deste artigo pode parecer complicado, mas o conceito que abordarei será razoavelmente simples. Quero mostrar, através de um caso real, como o algoritmo do Google “testa” uma série de possibilidades de seu algoritmo em busca do que traz os melhores resultados; de certa maneira, é como se o algoritmo do Google tivesse uma série de sub-algoritmos, que são randomizados em busca do qual trará resultados melhores, em um processo incessante de testes e medição de impactos.

Trata-se de uma teoria, porque eu não disponho de provas para defendê-la, apenas de indícios. Falando dessa maneira, sinto-me um pouco como Charles Darwin, mas posso garantir que se trata de algo menos abstrato do que a forma da vida na Terra. Enfim, vamos prosseguir…

Estamos em um momento especialmente propício para falar dessa teoria, cujo tema eu já abordei superficialmente no artigo Filosofia do SEO. Por conta do lançamento do Google Penguin, que já foi abordado neste artigo, é um ótimo momento para abordar um tema complexo e sempre abstrato (pelo fato de ninguém fora do Google dispor de dados), que são as mudanças do algoritmo.

Momento de aprender

Trata-se de um bom momento para aprender sobre SEO, porque os resultados durante estes dias estão instáveis. Dessa maneira, podemos observar em um curto espaço de tempo o peso que o Google está dando a cada critério.

No dia 11 de junho, as SERP do Google estavam especialmente instáveis por conta do update do Google Penguin. Ao contrário do usual, a dança de palavras-chave (mudança de posições) ocorreu durante todo o dia; por alguns momentos parecia caótico, pois atualizando uma SERP que costumava passar inalterada todo o dia, tudo estava mudando a cada instante. A cada hora um novo site assumia os primeiros lugares e alguns novos domínios apareciam na SERP. Depois, domínios sumiam, outros apareciam e as posições ficavam totalmente alteradas.

Refiro-me à SERP do termo SEO, que é uma das mais concorridas do mercado, dada a qualificação dos players. Aliás, ao longo do dia, um dos maiores sites no Brasil sobre o assunto (o MestreSEO) chegou a simplesmente sumir dos resultados. Resta saber se era por uma falha do algoritmo ou alguma punição. Ao longo deste artigo, vocês entenderão porque poderia ser uma falha – que decerto será corrigida.

À procura do melhor algoritmo

Segundo o meu entendimento, o que permite ao Google tanta mudança nos resultados é que diariamente um novo algoritmo dava lugar ao anterior, a fim de calibrar o algoritmo que será utilizado com menores alterações e impacto ao longo dos próximos meses, até que haja um novo e impactante update no Google. Esses são os sub-algoritmos simultâneos, que funcionam praticamente ao mesmo tempo.

Precisamos entender o que acontece do lado dos engenheiros de software: eles têm suposições que, segundo julgam, melhorariam o algoritmo do Google; mas elas ainda precisam ser testadas. Com certeza é feita uma série de testes internos e quando há um calibre correto entre critérios on e off page – e dentro desse on e desse off page uma infinidade de critérios menores (title, h1, conteúdo, links internos, imagem, vídeo, etc.) -, o Google tem um protótipo maduro que será “testado” em buscas. Buscas essas que os engenheiros conhecem melhor, para assim poder avaliar como resultados mais relevantes apareciam no topo de uma maneira algorítmica, não manual.

É importante ter em mente que o Google não pode se dar ao luxo de fazer nenhuma alteração manual no algoritmo, pois isso seria potencialmente muito custoso.

Testando esses algoritmos

Tendo passado por um teste de viabilidade funcional, em que se simulam milhares ou milhões de buscas, há um processo interno para considerar aquele novo algoritmo maduro o suficiente para ir para a ação.

O que estamos analisando até o momento, na verdade, não são mudanças nem atualizações importantes, como o Penguin e Panda, mas otimizações rotineiras do algoritmo nas quais se procuram maneiras de aperfeiçoar o que já existe e, em segundo plano, implementar melhorias. Essas coisas acontecem diariamente no Google.

Todavia, nada impede que nessas versões do algoritmo já se tenham implementado os recursos realmente novos do buscador. Também é possível que se comparem versões com e sem os filtros só disponíveis no Penguin, por exemplo, e assim medir o impacto.

Usabilidade da busca

O melhor algoritmo nem sempre é o melhor algoritmo.

O mais importante, para o Google, não é o que seus engenheiros consideram melhor ou pior – até porque eles não passam de engenheiros e não têm a sensibilidade subjetiva do público consumidor de sistemas de busca. Portanto, para que o Google funcione bem, ele não deve contar com as suas próprias suposições, mas com o feedback do mercado.

Façamos um parênteses. Eu conversava com um cliente sobre a razão da queda nasconversões na mudança de um site antigo para um novo, mais moderno e mais bonito. Isso, na verdade, é algo pelo que passo quase sempre que um cliente está mudando o seu site, afim de manter o que eu julgo ativos de conversão do site anterior. Não raro acontece do site novo não só converter menos, bem como o público não gostar dele; sim, às vezes o consumidor prefere o site “feio”; acha-o mais bonito e fácil de usar, afinal estava acostumado com ele.

Com o Google não é diferente: os engenheiros procuram implementar as melhores tecnologias e encontrar os melhores critérios, mas só os usuários mesmo é que irão determinar quais os resultados mais relevantes.

Mudar, ou não mudar

A mudança de algoritmos deve ser vista como um dilema dentro do Google: o buscador já é bem aceito, todavia precisa evoluir para que um dia não venha a ser ultrapassado por um concorrente com melhor tecnologia, nem que profissionais de SEO entendam o funcionamento dele e passem a fazer sites para robôs (o que mais cedo ou mais tarde aconteceria).

Muitas dessas mudanças, por outro lado, são feitas única e exclusivamente para manter seu império ileso. Sob certa ótica, também é preciso chamar a atenção e fazer um auê para dizer que os resultados estão melhores ainda; também nunca é demais alarmar os spammers de que o cerco cada vez mais se fecha para eles.

Como esses algoritmos se tornam um

Na verdade, eles nunca se tornarão um único algoritmo.

A minha teoria principal sobre SEO é justamente que o Google não tem uma única maneira de avaliar os sites, e usa diversas formas afim de calibrar melhor seus critérios. Por isso, está a cada dia testando uma nova maneira de trazer melhores resultados. Essas formas, que são testadas simultaneamente, são esses múltiplos e simultâneos sub-algoritmos.

O Google dispõe de uma infinidade de informações através de ferramentas suas, como o próprio buscador (é possível identificar a taxa de cliques no botão “voltar” e o impacto de mudanças na SERP), o Google Analytics, sua barra de ferramentas, widgets do +1 e outros. Não é atoa que com o Google Penguin, a taxa de rejeição do web site, dentre outras métricas competitivas, tem se tornado também um critério de posicionamento dos sites.

Por isso, ele pode se dar ao luxo de testar melhorias de recursos; afinal tem sempre como avaliar os lucros e os prejuízos de suas mudanças.

Aguarde os próximos artigos, nos quais procurarei abordar outros aspectos do Penguin.

Se tiver alguma dúvida, não hesite em me perguntar nos comentários.