Rankings do Google ido? Veja como diagnosticar o problema

Divulgação: Seu suporte ajuda a manter o site funcionando! Ganhamos uma taxa de indicação por alguns dos serviços que recomendamos nesta página.


É algo que todo editor de sites teme. Você acorda um dia para descobrir que seu site sofreu uma queda significativa no ranking do Google. Depois de todo o trabalho duro que você dedicou para ganhar posição nas páginas de resultados do mecanismo de pesquisa (SERPs) do Google, perder não apenas alguns pontos, mas dez, ou vinte, ou mais, pode ser desanimador, sem mencionar um hit para sua receita. Se o seu site não está classificado, significa que as pessoas podem ter mais dificuldade em encontrá-lo, o que significa que não estão lendo seu conteúdo ou comprando seus produtos ou serviços. O que você faz?

Diagnosticando uma queda na classificação do Google

O primeiro passo é diagnosticar a queda na classificação do Google. Há tantos fatores nas classificações de um site que pode ser difícil ver imediatamente o que fez com que seu site perdesse sua posição. E você não pode consertar se não souber o que está errado. Respire fundo, encare a situação com calma e racionalidade e comece a diminuir as possibilidades.

Nota: Muitos dos problemas e correções sugeridas listados aqui são muito complexos e podem justificar um exame aprofundado por conta própria. Nosso foco é diagnosticar problemas, com algumas sugestões simples de como corrigi-los. No entanto, sempre pesquise mais questões e entenda que a correção de alguns problemas pode estar muito mais envolvida do que atualizar uma cópia ou remover um backlink. No final deste guia, nós’ligará você a alguns recursos adicionais para resolver alguns dos problemas complexos da mudança.

Cada site é diferente e não existe uma solução que funcione para todos os problemas todas as vezes. Em caso de dúvida, consulte um profissional em SEO (Search Engine Optimization) para obter assistência.

Que tipo de queda de classificação você está vendo?

Esta é a primeira pergunta a ser feita. Os sites obtêm classificações de várias maneiras. Portanto, antes de fazer qualquer outra coisa, é importante determinar o tipo de queda que seu site sofreu.

Soltar palavra-chave única

Verifique o Google Analytics. Está mostrando que você perdeu tráfego para apenas uma de suas palavras-chave? Em caso afirmativo, onde essa palavra-chave aparece no seu site? É focado em uma página ou espalhado por várias páginas? Verifique essas páginas para ver se há problemas.

Pode ser que o comportamento da pesquisa tenha mudado. Talvez um termo anteriormente popular para um serviço tenha dado lugar a uma nova palavra da moda. Pode ser uma questão simples de atualizar sua cópia com o termo mais recente para recuperar uma posição anterior no ranking.

Esse problema ficou mais difícil de diagnosticar agora que o Google mudou para uma pesquisa totalmente segura, e os dados de referência de palavras-chave orgânicas não estão tão disponíveis quanto antes. Pode ser necessário procurar ferramentas alternativas, além do Google Analytics, para obter acesso aos dados das palavras-chave. Algumas opções são:

  • WordStream
  • SEMrush
  • Google Search Console (anteriormente Ferramentas do Google para webmasters)

Queda na classificação do site inteiro

Se todo o site caiu dez ou mais lugares nos SERPs ou desapareceu por completo, você provavelmente foi afetado por uma atualização do algoritmo do Google ou por uma penalidade manual.

O Google não costuma publicar atualizações de algoritmos, exceto por meio de comunicados de imprensa cobertos por veículos de notícias. No entanto, você pode acompanhar todas as alterações aqui.

A correção de problemas em seu site e a recuperação de sua posição nos SERPs dependerão da atualização do algoritmo e do que foi criado para solucionar ou da natureza da penalidade manual. Lembre-se de que, depois de ajustar seu site para corrigir qualquer problema, pode demorar um pouco até que você veja algum movimento nas SERPs, pois o Google precisará rastrear seu site novamente e você poderá estar competindo contra concorrentes também afetados pelo atualizar e tentar obter seus rankings de volta.

Compreendendo a Pesquisa do Google

Antes de falarmos sobre a recuperação de uma queda no ranking,’é importante entender os diferentes fatores que podem afetar sua classificação no Google SERP. Assim como vários fatores determinam a classificação dos mecanismos de pesquisa de um site, vários fatores também podem ter um efeito negativo. Novamente, se você não é o webmaster mais tecnicamente experiente ou ainda não tem certeza do que está causando a queda de seu site nos SERPs, consulte um profissional para ajudá-lo.

Atualizações do algoritmo do Google

O algoritmo de pesquisa do Google é constantemente atualizado para acompanhar a evolução da Internet e as maneiras pelas quais a publicação e a pesquisa na Web mudam. Algumas das maiores atualizações da memória recente incluem Mobilegeddon, Pigeon, Pirate, Panda, Penguin e Hummingbird.

Ao ler sobre essas principais atualizações de algoritmos, você’verá que quase todo o Google’As atualizações do algoritmo s visam melhorar a experiência do usuário. O que todas essas atualizações se resumem é um esforço no Google’s para produzir resultados de pesquisa de alta qualidade. O Google está tentando atender bem seus clientes. Se você deseja que seu site funcione bem no Google’s SERPs por um longo período de tempo, a melhor maneira de conseguir isso é desenvolver um site de alta qualidade e produzir conteúdo de alta qualidade.

  • Mobilegeddon, formalmente denominada Atualização para dispositivos móveis, foi lançada em abril de 2015 e teve como resultado dar preferência aos resultados de pesquisa para sites compatíveis com dispositivos móveis. Você pode ser perdoado se não’t reconhecer o Mobilegeddon como aconteceu; o impacto nos resultados da pesquisa foi menos pronunciado do que muitos esperavam. isto’ainda é uma boa idéia ter um site responsivo, e o Google ainda fornece uma ferramenta gratuita para ajudar os webmasters a determinar se o Google’Os robôs consideram que seu site é compatível com dispositivos móveis.
  • Os resultados da pesquisa local foram alterados pelo Pombo atualização lançada em 2014. A distribuição afetou inicialmente apenas os Estados Unidos, mas em dezembro de 2014 a Pigeon havia sido lançada no Reino Unido, Canadá e Austrália. Com efeito, a atualização do Pigeon é um esforço para fornecer resultados locais mais relevantes.
  • Infratores repetidos de violação de direitos autorais foram alvo do Pirata atualização iniciada em 2012. Embora o lançamento original tenha sido amplo e tenha produzido apenas um impacto modesto nos resultados da pesquisa, em 2014 foi lançada uma atualização altamente direcionada e extremamente potente. A atualização de 2014 atingiu um número limitado de sites com um longo histórico de violações de direitos autorais de software e mídia digital. Os sites afetados pela atualização do Pirate de 2014 viram a visibilidade da pesquisa no Google diminuir em até 98%.
  • Panda abordou a questão do conteúdo de baixa qualidade, diminuindo a classificação dos sites se o conteúdo não fosse considerado de qualidade suficientemente alta. A solução rápida aqui é não apenas melhorar a qualidade do conteúdo existente, mas garantir que você publique apenas conteúdo de alta qualidade. O Panda chegou aos sites a partir de fevereiro de 2011 e foi atualizado mais de 25 vezes com a atualização mais recente em setembro de 2014.
  • Pinguim abordou problemas de super otimização a partir de abril de 2012, atingindo sites com muitos backlinks otimizados. Por exemplo, se seu site vender câmeras digitais e você tiver milhares de links entrando no site com o texto âncora otimizado “compre câmeras digitais on-line”, poderá ser escolhido pelo Penguin. A solução rápida aqui é reduzir o número de links otimizados que chegam ao seu site e alterar o texto âncora para incluir frases mais naturais e diversas. O Penguin foi atualizado várias vezes desde 2012, mais recentemente em outubro de 2014.
  • beija Flor foi um ajuste tão sutil, ninguém realmente percebeu isso até que o Google anunciou – um mês depois que entrou em vigor. Esta atualização visa mostrar resultados com base em palavras mais naturais das consultas de pesquisa. Por exemplo, em vez de um site aparecer nos resultados com base na pesquisa da “melhor câmera digital”, ele pode receber mais atenção – e uma classificação mais alta – usando palavras mais naturais, como “qual é a melhor câmera digital que posso” comprar por menos de US $ 500? ” A atualização do Hummingbird chegou ao Google’principal do algoritmo em agosto de 2013 e recebeu atualizações ou, pelo menos, atualizações anunciadas pelo Google.

O Google certamente criará atualizações futuras que abalarão os SERPs; portanto, fique de olho nas alterações. A melhor maneira de resolvê-los, no entanto, é simplesmente garantir que seu conteúdo seja de alta qualidade e seja redigido naturalmente. Para ecoar a sabedoria transmitida pelo Google’s Webmaster Academy: escreva para o seu público, não para os mecanismos de pesquisa.

Corrigir e melhorar as classificações do Google

Boas práticas de otimização de mecanismo de busca (SEO), conhecidas como Whitehat SEO, devem ser entendidas e implementadas por todo bom webmaster. A correção desses problemas deixará sua página otimizada para o melhor desempenho do mecanismo de pesquisa.

Formatar robots.txt corretamente

Essa deve ser uma das primeiras coisas que você deve verificar. Você pode se surpreender com a quantidade de sites com erros simples em seus arquivos robots.txt. O arquivo robots.txt informa aos robôs dos mecanismos de pesquisa quais páginas rastrear e quais ignorar.

Se, por engano, seu arquivo robots.txt estiver dizendo aos bots para ignorarem todo o site, você provavelmente não estará aparecendo nas SERPs. Ou talvez você tenha adicionado acidentalmente uma página que deseja rastrear e indexar. Para ver o que está acontecendo, acesse o Google e digite insite: seudominio.com.br (ou .net, .org, qualquer que seja a extensão do seu site) e veja os resultados que o Google retorna.

Se as páginas do seu site estão aparecendo da maneira que deveriam, o arquivo robots.txt provavelmente está funcionando da maneira que deveria. No entanto, se você vir apenas resultados parciais, o arquivo poderá estar bloqueando algumas de suas páginas. Você pode até ver uma mensagem dizendo que as informações do site não podem ser exibidas devido a um erro robots.txt.

Se você acha que seu arquivo robots.txt pode estar interferindo na sua classificação, consulte http://yourdomain.com/robots.txt. O que você vê nessa página indica quais páginas os bots do Google estão sendo instruídos a ignorar. Se você vir páginas listadas no seu arquivo robots.txt que devem ser indexadas pelo Google, você tem algumas correções para fazer.

Algumas edições rápidas desse arquivo podem corrigir as coisas novamente, embora você precise esperar um pouco para que seu site seja rastreado novamente e o índice para atualização. Para acelerar, você pode solicitar manualmente que seu site seja rastreado usando o Google Search Console.

Encontre e corrija Backlinks quebrados

Um backlink é um link que entra no seu site a partir de outro site. O Google considera os backlinks como votos iguais à autoridade, qualidade e popularidade do seu site. Se, por algum motivo, um backlink para o seu site for interrompido, você perderá esse efeito positivo.

Os backlinks podem ser interrompidos por vários motivos: o site vinculado a você moveu a página vinculada ou simplesmente não existe mais; você moveu ou excluiu a página do seu site à qual estava vinculado; ou apenas um pequeno erro de digitação no código do link pode quebrar um link.

Para descobrir backlinks quebrados no seu site, tente usar uma ferramenta. Algumas opções são:

  • Sapo gritando
  • Xenu
  • Abra o Site Explorer

Lembre-se de que enquanto o Google’O algoritmo s adora backlinks orgânicos, odeia backlinks com spam e gerados artificialmente. isto’nunca vale a pena pagar por backlinks ou criá-los artificialmente em diretórios de links ou nas seções de comentários de outros sites. A melhor maneira de obter backlinks orgânicos é criar conteúdo original que seus leitores apreciam e compartilham.

Conteúdo obsoleto

Um dos muitos fatores pelos quais o Google julga a relevância e a qualidade dos sites que classifica é o quão recente é o conteúdo. Se você criar um site pequeno e estático e depois deixá-lo descansar, é provável que ele não funcione tão bem nas SERPs como faria se estivesse atualizando um blog regularmente.

Se seu site foi negligenciado por muito tempo, considere atualizar seu conteúdo. E se você ainda não tem um, pense em adicionar um blog. A publicação de conteúdo novo e fresco pode dar uma nova vida, não apenas no seu site, mas em seus rankings.

Evite as práticas de SEO da Blackhat

Praticar SEO ruim, ou Blackhat SEO, em um site pode incluir tudo, desde não conhecer melhor e usar texto âncora super otimizado, colocar backlinks artificiais em comentários de artigo e diretórios pagos, ou tentar enganar ativamente o Google com texto oculto e outras táticas furtivas. Embora esses truques possam ter funcionado nos anos anteriores para aumentar artificialmente a classificação de um site, o algoritmo do Google se tornou significativamente mais sofisticado ao longo dos anos e agora é capaz de detectar coisas como texto oculto, backlinks artificiais, páginas de entrada, páginas de entrada, domínios estacionados e spam de rodapé.

Mais uma vez, verifique o Google Search Console em busca de mensagens que possam explicar uma ocorrência de classificação e siga as etapas apropriadas para corrigi-las. Em seguida, certifique-se de seguir as práticas recomendadas de SEO ao criar novo conteúdo e novos sites.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me

    Like this post? Please share to your friends:
    Adblock
    detector
    map