Logo E-Commerce Brasil

Construindo um processo técnico de SEO no e-commerce

Um dos maiores desafios que muitos dos meus clientes enfrentam é construir os processos corretos e SEO nos devidos lugares, para que eventuais problemas sejam detectados rapidamente, antes que se tornem problemas maiores. Abaixo estão três coisas que você deve considerar quando tentar criar um processo mais simplificado para ter certeza de que a base técnica do site é sólida. Embora nenhum processo seja considerado rápido, ou fácil, e possa tomar uma quantidade significativa de tempo, ao longo prazo eles ajudarão a fazer um acompanhamento mais eficiente de SEO em seu site. Isso significa menos tempo gasto com a identificação e correção de problemas no local e mais tempo com foco em outros aspectos de SEO, como link building, o desenvolvimento de uma estratégia de conteúdo, etc.. O impacto que isso terá sobre o seu site pode resultar em grandes recompensas.

1. Anotações técnicas no Google Analytics

Atualmente, muitos dos meus clientes com contas no Google Analytics não incluem nenhuma anotação em suas contas. Colocam apenas o e-mail, o PPC, campanhas sociais ou usam para acompanhar as mudanças do algoritmo do Search Engine (como as atualizações do Panda). No entanto, o valor de anotar todas as alterações técnicas introduzidas no site no Google Analytics cria um processo interno mais eficiente.

 

Cenário 01: Digamos que você tenha configurado o “Alertas do Google” para alertá-lo de qualquer pico e queda no tráfego. Então, ter as alterações técnicas anotadas no Google Analytics agiliza e facitila o processo de determinar a causa da mudança. Não será mais preciso gastar horas para chegar a uma conclusão. Além disso, qualquer grande problema técnico corre o risco de ser implementado inadequadamente (em termos de considerações SEO), simplesmente porque há tantas questões a serem levadas em conta.

Aqui estão mais informações sobre como configurar um Alerta do Google.

Cenário 02: Muitas vezes o SEO não é uma prioridade técnica para a equipe de desenvolvimento, principalmente porque é difícil medir o ROI – já que é preciso muito tempo e esforço para fazê-lo. Criar anotações no Google Analytics pode ajudar neste processo. Se um aumento no tráfego, por exemplo, vier a ocorrer e a equipe conseguir de alguma forma atribuir isto a uma aplicação técnica no local, a equipe técnica pode ser devidamente reconhecida como sendo a causa dessa mudança.

2. Mapas do site – Google/ Bing Webmaster Tools

SEOs devem criar um processo interno em que o Google Webmaster Tools é verificado pelo menos uma vez por mês para garantir que não haja grandes problemas com os mapas do site ou com bots de rastreamento. Os mapas são úteis somente se forem atualizados e bem conservados.

Por que isso é importante? Duane Forrester, do Bing, declarou que “os mapas dos sites devem estar limpos. Temos um subsídio de 1% para a sujeira em um mapa de site”. Sua definição de sujeira inclui erros de códigos de status 404 ou 500 e redirecionamentos. Ele continua dizendo: “se vemos mais do que 1% de sujeira, começamos a perder a confiança nos mapas dos sites”.

Boas práticas incluem o envio de um novo mapa do site regularmente, dependendo da frequência com que o novo conteúdo é gerado no mesmo. Para um site de publicação, talvez seja necessário atualizar a cada poucas horas, Já um site de comércio eletrônico, a cada semana; e um site relativamente estático, a cada mês.

Mapas de sites devem ser verificados, pelo menos, mensalmente no Webmaster Tools para garantir que não há problemas.

Estes incluem:

  • Verificação de mensagens de erro;
  • Verificação do número de páginas apresentadas x indexadas;
  • Verificação de malware (e resolvê-los imediatamente!);
  • Verificação de erros de rastreamento (como 4xx e 5xx questões).
Usando Screaming Frog

Se você tem uma conta de Screaming Frog, você também pode usá-la para verificar as Ferramentas do Google para webmasters, especialmente porque o Google Webmaster Tools nem sempre atualiza os seus erros. Assim, você não vai quer procurar 404s que já foram corrigidos. Você também pode usá-lo para verificar o mapa do seu site para erros. Para isso, basta carregar o mapa do site em XML Screaming Frog e rastreá-lo. Craig Bradford Distliled fez um post maravilhoso em seu blog sobre como usar o Screaming Frog para realizar essas tarefas, entre outras coisas.

Se o Google Webmaster Tools não é verificado periodicamente, o número de erros pode parecer esmagador. Joe Robinson escreveu um artigo excelente para o SEOmoz sobre como consertar um grande número de erros no Google Webmaster Tools.

3. Criação de Scripts automatizados

404 retornando status de código 200:

Barry Schwartz escreveu um artigo sobre como páginas com erro 404 não deve retornar ao status de código 200. O raciocínio é que pode ser confuso para spiders ver uma página que tecnicamente existe, mas não tem conteúdo. Isso pode afetar rankings ao longo do tempo, pois ele gera conteúdo duplicado, como os bots que rastejam por meio do mesmo conteúdo repetidas vezes em vários URLs. Ele também sugere a criação de scripts automatizados para verificar esse tipo de problema.

No entanto, para ajudar a determinar a extensão deste problema em seu site e fornecer uma estimativa do número de 404 que retornam ao status de código 200, faça uma consulta de busca do site para o Google. Veja este exemplo: site:example.com/ “page not found”. Se a consulta retornar os resultados, você sabe que seu site está retornando ao status de código 200 para páginas com erro 404; e esta questão precisa ser corrigida.

SEO scorecards:

Eu falei anteriormente sobre como criar um SEO scorecards. Eu recomendei recentemente uma outra versão dele para um outro cliente que tinha centenas de milhares de URLs. Neste caso específico, eles tiveram dificuldade em se certificar de que apenas conteúdos não-duplicados de alta qualidade seriam indexados. Sendo um cliente de e-commerce, o site também teve toneladas de produtos que eram muito semelhantes (resultando em descrições de produtos e conteúdos idênticos).

Sugeri a criação de uma folha de resultados internos, que seria automaticamente executada todos os meses, para se certificar de que todas as páginas indexadas são de alta qualidade – além de oferecer uma oportunidade de revisão para as páginas que antes eram consideradas de baixa qualidade. Uma vez que o conteúdo dessas páginas se teorne de alta qualidade, elas serão automaticamente indexadas.

Este processo pode ser usado para gerar os mapas do site, mas o objetivo é prevenir o site contra alterações futuras na busca do engine algorithmic, enquanto melhora a autoridade de domínio global.

Há ressalvas que precisam ser abordadas durante a criação de um SEO scorecard. Queremos ser cuidadosos sobre páginas não indexáveis, pois isto poderia resultar em menos e menos do site sendo indexado. Uma vez que o roteiro inicial está escrito, verificar os resultados e ver se estas são realmente as páginas que você não deseja indexar. Se não, o script pode ter que ser reescrito.

O objetivo final é ter certeza de que só as páginas de qualidade serão indexadas, além de manter um controle sobre quantas páginas do site precisam de conteúdo exclusivo. Este tipo de conhecimento pode ser útil ao criar link building do site e estratégia de conteúdo.

Conclusão
O objetivo geral é construir um processo simplificado para auditar tecnicamente um site, que possa ser descrito e, assim, comunicado internamente. Criar um processo mais eficiente significa investir mais tempo em outros elementos – compilar conteúdo de qualidade, construir uma comunidade online e mídias sociais, para citar alguns.

***

Este artigo é uma republicação feita com permissão. SEOMoz não tem qualquer afiliação com este site. O original está em: http://www.seomoz.org/blog/building-a-technical-seo-process