Logo E-Commerce Brasil

As duas métricas do usuário que importam para o SEO

Na sequência de atualizações do Google Panda, tem havido muito medo a respeito das métricas do usuário e como elas impactam o SEO. Muitas pessoas têm medo de que sinais “ruins” nos dados de análise, especialmente as altas taxas de rejeição e o baixo tempo de permanência no site, poderiam prejudicar os seus rankings.

Eu não acho que o Google está explorando dados de analytics diretamente (eu vou defender isso mais tarde), e eu não acho que eles precisem. Há duas métricas do usuário às quais o Google e o Bing têm acesso: (1) SERP CTR, e (2) “O tempo de permanência”, e eu acho que essas duas métricas podem  dizer muito sobre a eles o seu site.

Google Analytics (GA) e SEO

A palavra oficial do Google é que a análise de dados não é utilizada para o rankeamento. Se você acredita ou não, depende inteiramente de você, e eu não estou aqui para discutir sobre isso. Eu só vou dizer que é raro ouvir o Matt dizer algo tão enfaticamente. Acho que os argumentos contra o uso de analytics diretamente como um fator de classificação para o ranking são muito mais práticos por natureza…

(1) Nem todo mundo usa GA

Estatísticas de uso de GA são difíceis de especificar, mas um grande estudo de 2009 colocou a taxa de adesão em cerca de 28%. Já vi números elevados como 40% sendo citados, mas é provável que algo em torno de 2/3 de todos os sites não tenham dados de GA. É difícil para o Google penalizar ou desvalorizar um site baseado em um fator que só existe em 1/3 de todos os sites. Pior ainda, alguns dos maiores sites não têm dados de GA, porque esses são os sites que podem pagar análises de empresas tradicionais (WebTrends, Omniture etc.)

(2) GA pode ser mal instalado

Mesmo para sites usando GA, o Google não pode controlar a forma como ele é instalado. Eu posso lhe dizer como consultor e também por responder muitas perguntas na nossa seção de Q&A (Perguntas e Respostas) aqui no SEOmoz que o GA é frequentemente mal instalado. Isso pode elevar as taxas de rejeição, reduzir o tempo de permanência no site e, geralmente, acrescentar um monte de ruído para o sistema.

(3) GA pode ser manipulado

Claro, há uma versão maliciosa de (2) – você pode fazer uma má instalação do GA de propósito. Existem maneiras de manipular a maioria das métricas do usuário, se você quiser, e não há maneira escalável para o Google checar a instalação e a configuração de todos. Uma vez que as tags do GA estão em suas mãos, elas perdem muito controle.

Para ser justo, outros discordam e pensam que o Google irá utilizar quaisquer dados nos quais ele possa colocar suas mãos. Alguns têm até mesmo produzido evidências indiretas de que a taxa de rejeição está em jogo. Eu vou discutir um ponto simples – que o Google e o Bing não precisam de análise de dados ou taxa de rejeição. Eles têm todos os dados de que necessitam a partir de seus próprios logs.

A razão de eu não acreditar

Um argumento que você ouve todo o tempo é que o Google não pode usar algo como taxa de rejeição como um sinal para o rankeamento, porque ela é muito dependente do local e não confiável por si só. Ouço tantas vezes que eu queria ter um momento para dizer que eu não acredito nesse argumento, por uma razão simples. Qualquer sinal para o rankeamento, por si só, não é confiável. Eu não conheço um único SEO que argumenta que as tags TITLE não importam, por exemplo, e ainda marcas TITLE são incrivelmente fáceis de manipular. Fatores on-page em geral podem ser muitos e-mails – é por isso que o Google adicionou links à mistura. Os links podem ser considerados spams – é por isso que eles estão adicionando métricas sociais e métricas do usuário. Com mais de 200 fatores de rankings (Bing reivindica mais de mil), nenhum fator tem que ser perfeito.

Métrica # 1: SERP CTR

A primeira métrica que eu acho que o Google faz amplo uso é o CTR (Click-Trough Rate) das SERPs. Uma das primeiras dicas se um certo resultado é relevante para a busca feita, tanto para o Google como para o Bing, é se o resultado recebe clicks ou não. Sabemos que Google e Bing têm esses dados, pois eles fazem esse report direto para nós.

No Google Webmaster Tools, você pode encontrar dados de CTR sob “o seu site na web” > “consultas de pesquisa”. Algo parecido com:


Bing relata dados semelhantes – a partir do “Painel”, clique em “Resumo de tráfego”:

Claro, nós também sabemos que os fatores de CTR do Google pesam em sua pontuação de pesquisa de qualidade paga, e o Bing fez o mesmo durante o ano passado. Enquanto o algoritmo de busca paga é muito diferente da busca orgânica, é lógico que eles valorizam o CTR. Resultados relevantes impulsionam mais cliques.

Métrica # 2: Tempo de permanência

No ano passado, Duane Forrester, do Bing, escreveu um post chamado “Como construir conteúdo de qualidade“, e em que ele faz referência a algo chamado “tempo de permanência”:

Sua meta deve ser que, quando um visitante acessa sua página, o conteúdo responde a todas as suas necessidades, incentivando a sua próxima ação para ficar com você. Se o seu conteúdo não incentivá-los a permanecer com você, eles irão sair. Os mecanismos de busca podem ter uma noção disso observando o tempo de permanência. O tempo entre quando um usuário clica sobre o nosso resultado de busca e quando ele volta de seu site conta uma história em potencial. Um ou dois minutos é bom, pois ele pode facilmente indicar que o visitante consumiu o conteúdo. Menos do que uns 2 segundos pode ser visto como um resultado pobre.

O tempo de permanência, em certo sentido, é uma combinação entre a taxa de rejeição e as métricas de tempo no site – ele mede quanto tempo leva para alguém voltar a uma SERP após clicar em um resultado (e ele pode ser medido diretamente a partir dos dados do próprio mecanismo de busca).

O Google não tem sido tão transparente, mas há uma pouco de evidência que me sugere fortemente que eles também usam tempo de permanência (ou algo muito parecido). No ano passado, o Google testou um recurso em que, se você clicou em um anúncio e rapidamente voltou para a SERP (ou seja, seu tempo de permanência foi muito baixo), você teria a opção de bloquear esse site:


Esse recurso não está disponível para todos os usuários – o Google diminuiu temporariamente o bloqueio de sites com o lançamento de personalização social. O fato de que tempo de permanência baixo provocou a capacidade de bloquear um site, porém, mostra claramente que o Google é factoring em tempo de permanência como um sinal de qualidade.

1 + 2 = Assassino de combinações

Essas duas métricas realmente se destacam como um dueto. O CTR, por si só, pode ser facilmente manipulado – você pode conduzir os cliques com títulos enganosos e META descriptions que têm pouca relevância para a sua página de destino. Entretanto, esse tipo de manipulação conduzirá naturalmente um para baixo tempo de permanência. Se você aumentar artificialmente o CTR, e o seu site não cumprir a promessa do snippet, as pessoas irão voltar para as SERPs. A combinação de CTR e tempo de permanência é muito mais poderosa e, com apenas duas métricas, remove um monte de problemas de qualidade. Se você tiver o CTR e o tempo de permanência elevados, você quase sempre terá uma um resultado de qualidade e relevante.

Outras métricas importam?

Não estou sugerindo que a taxa de rejeição e outras métricas do usuário não importam. Como eu disse, o tempo de permanência está ligado (e provavelmente bem correlacionado) tanto à taxa de rejeição e como ao tempo no site. Glenn Gabe fez um belo artigo sobre a “taxa de rejeição real” e por que o tempo de permanência pode representar uma melhoria sobre a taxa de rejeição. Também estou aderindo a métricas de usuários tradicionais de análise e deixando de fora as métricas mais abrangentes, como velocidade do site e sinais sociais, o que claramente prende o comportamento do usuário.

O que eu quero que você faça é ter uma visão mais ampla dessas métricas do usuário, do ponto de vista do mecanismo de busca, e não ficar obcecado com o impacto do SEO em seus dados de analytics. Eu tenho visto ultimamente pessoas removendo e até mesmo manipulando tags do GA, por medo de problemas de SEO, e o que elas geralmente acabam fazendo é apenas destruir a confiabilidade de seus próprios dados. Eu não acho que o Google ou o Bing estejam usando dados diretos de análise e, mesmo que façam isso durante o processo, eles provavelmente irão combinar esses dados com outros fatores.

Então, o que você deve fazer?

Você deve criar fragmentos de pesquisa que levem a cliques para páginas relevantes e construir páginas que façam as pessoas ficar em seu site. No final do dia, parece bastante óbvio, e é bom tanto para o SEO quanto para a conversão. Especificamente, pense sobre o combo – direcionar cliques é inútil (e provavelmente até prejudiciais para o SEO) se a maioria das pessoas que clica imediatamente sair do site. Trabalhe para encontrar o equilíbrio e para segmentar palavras-chave relevantes que impulsionam os cliques corretos.

Este artigo é uma republicação feita com permissão. SEOMoz não tem qualquer afiliação com este site. O original está em: http://www.seomoz.org/blog/the-2-user-metrics-that-matter-for-seo