Quando o assunto é erro em SEO, nem só Black Hat é problema. Fazer mau uso dos fatores que contam pontos positivos também é um erro, é um desperdício.
Nos anos de consultoria e curso, é até impressionante o quanto isso acontece. Pessoas que sabem que determinado fator é importante, mas acabam não tirando o maior proveito dele, não aproveitam o que já aprenderam para fazer SEO.
Inspirado em um artigo do SEOChat vou passar por vários dos Piores Erros de SEO (Worst SEO Mistakes).
Uso de Flash
Hoje o Flash já está praticamente extinto da criação de sites, no sentido de ter um site inteiro desenvolvido em Flash. O máximo que se tem hoje em dia é algum player de vídeo ou anúncio, mas o HTML5 vem fazendo com que estes sejam menos frequentes também.
Houve um tempo em que o Google até anunciou que partiria para a indexação do Flash, lendo o conteúdo texto presente em documentos Flash e que os desenvolvedores poderiam manter o desenvolvimento de sites em Flash. Mas algum tempo depois a iniciativa morreu.
O Google devolveu para as mãos da Adobe a tarefa de fazer com que um site Flash pudesse ser indexado. A Adobe abriu mão da tarefa também.
Até é possível posicionar um site feito em Flash entre os primeiros, mas é mais rápido e mais simples fazer isso para um site em HTML. Além do mais, com a proliferação do uso e Internet no celular e o não advento destes para rodar Flash, ele está fadado ao desaparecimento.
É um erro tentar investir em um site feito em Flash, por SEO, e por questões muito maiores do que SEO.
Mau Uso de Title Tags
No começo dos tempos de Google e SEO, era muito comum encontrar dezenas de páginas com o título “Untitled Document” na web, ou seja, nada de título.
Em seguida, as plataformas de desenvolvimento de site passaram a automaticamente popular a tag title (<title>) com o título da página, o nome da empresa ou similar, e o Untitled foi desaparecendo.
Isso deu lugar a muitas páginas com títulos, porém, duplicados. Sempre o nome da empresa em todas as páginas.
O cenário seguinte foi o SEO se propagar, com sua premissa de que palavra-chave no título é relevante, aí os títulos passaram a ser inundados de palavras-chave (“Palavra-chave 1, Palavra-chave 2, Palavra-chave 3 …”)
Erro após erro, após erro. O título é ainda um ponto importante para o posicionamento no Google e, acima disso, vital para se conquistar o clique do usuário nos resultados de busca. Fazer de qualquer jeito, é um erro triste. Capriche!
Robots.txt Mal Configurado
O robots.txt é um arquivo que oferece ao webmaster algum controle sobre o que os robôs de busca podem, ou não, acessar em um site. Basta especificar o crawler a ser controlado e as regras com as sintaxes Allow e Disallow para permitir e bloquear o acesso, respectivamente.
No robots.txt é importante, também, definir o caminho para o sitemap XML do site com a sintaxe Sitemap.
O principal erro que acontece no uso do robots.txt é com a regra Disallow:/, que bloqueia todo o site. Isso acontece com mais frequência do que se imagina, especialmente em lançamento de sites ou re-lançamentos (novo layout e afins).
O mesmo vale para bloquear alguma parte importante do site por acidente. Parece óbvio, mas acontece. E um site bloqueado no robots.txt tem muito mais dificuldade para ganhar relevância.
Também é um erro (menor) não ter esse arquivo disponível no site. Em alguns casos, o Google pode decidir por não rastrear o site (adeus resultados de busca), embora seja mais comum que ele decida rastrear o site por completo, sem restrições. E isso também pode levar a acidentes maiores.
Portanto, conheça o seu site e determine corretamente as regras para o robots.txt.
Esquecer o Link Building mais fácil: Links Internos
Geralmente nós não consideramos links internos como parte da estratégia de Link Building mesmo, mas tenha certeza: Link interno conta para o Google também!
Novamente, pelos clientes de consultoria e pelos cursos, vejo muitos e muitos sites que falham usar sua própria força e estabelecer uma boa estratégia para uso de links internos. Limitar-se aos links do menu de navegação, sidebar e rodapé não conta como boa estratégia, ok? É só o mínimo esperado.
Esses links são de menos relevância do que links de conteúdo, como de um blog ligado ao site, ou área de conteúdo similar.
Sim, os links externos podem ser mais fortes e mais importantes para o ranking, mas se os links internos não forem bem utilizados, toda essa força externa vai ficar sub-utilizada também e pode ser a diferença entre o seu site e a primeira posição no ranking.
E tenha atenção especial a página inicial do seu site, ela tende a ser a página mais forte, ter mais backlinks e relevância. É uma pena ver sites com 2 ou 3 links aí, sendo que tem muito conteúdo a divulgar. Então, capriche você, não cometa esse erro.
Usar Frames e iFrames
Mais uma das antigas práticas que estão quase mortas, mas volta e meia são usadas em pontos importantes de conteúdo no site. Alguns sistemas de comentários e reviews se apoiam em iframes para exibição em uma página.
O Google ainda está em cima do muro quanto a indexar o iframe como parte da página pai, ou não, então o melhor é evitar que conteúdo importante esteja dentro do iframe.
Nos tempos mais recentes, o problema maior que o iframe traz está sobre a questão de monitoramento. Muitas aplicações geram formulários que são inseridos via iframe, ou apps no estilo, inseridas via iframe. Neste momento, o monitoramento desta área vai embora.
Assim, seja por SEO, ou não, sempre que possível, evite frames e iframes.
Uso de Cloaking
O Cloaking é uma “técnica” de mostrar conteúdos diferentes para uma pessoa ou para um robô de busca e é considerado Black Hat, ou puro e simples spam, e, portanto, é punido pelo Google.
Hoje já não se conhece casos novos de cloaking e os antigos já estão se perdendo (a BMW era um exemplo e tanto). Nessa linha, o mais frequente hoje são casos de invasão, na verdade.
Um script malicioso afeta um site e suas páginas e quando o Google tenta acessar, alguma coisa estranha acontece, como levar um redirecionamento ou ter na página implantados alguns links para sites spam ou que podem prejudicar o usuário de alguma forma.
O erro que pode acontecer aqui é quando o planejamento do Geo Targeting acaba virando cloaking. O Geo Targeting é uma técnica permitida pelo Google, que até dá os conselhos de como fazer certo.
Se o conteúdo vai se diferenciar com base na localização geográfica do usuário (país, cidade ou qualquer região), então se o Googlebot se identificar como da região X ou Y, ele deve receber o mesmo conteúdo que um usuário da região X ou Y. Geralmente isso vai parar nas mãos de um revisor manual.
Um segundo erro que pode acontecer é bloquear o Googlebot por acidente, não é um caso de cloaking clássico, mas o Google acaba não recebendo conteúdo nenhum do site. A configuração errada de um Firewall no servidor pode ser fatal também.
Uso de URLs não Otimizadas
O principal problema deste ponto é que a maioria dos sites primeiro cresce demais em conteúdo para depois começar a se preocupar com as URLs. A imensa facilidade de usar parâmetros p=2&id=43&etc=infinito também desencoraja os desenvolvedores a investir o tempo (e não perder tempo) com a otimização das URLs do site.
Neste ponto, o SEO deve trabalhar junto com o desenvolvedor para que a melhor solução de otimização de URL no site seja encontrada. Ainda não encontrei um sistema que impeça este trabalho. Sites em html, php, asp ou de sistemas de CMS como WordPress, Blogspot ou Joomla, todos permitem que se tenha URLs otimizadas, é questão de se programar corretamente mesmo.
A propósito, recomendo esses posts para você aprender a otimizar URLs no Blogspot e no WordPress, e como otimizar URLs em sites no geral.
Conteúdo Duplicado
Este é um dos maiores vilões do SEO, especialmente por que ele pode atacar sem que você perceba. Para não dizer que ele pode ser causado pelo próprio webmaster. Muitas pessoas tem dúvida sobre o que é ou não conteúdo duplicado, não tem certeza se determinada ação pode gerar ou não conteúdo duplicado e, especialmente, como evitar conteúdo duplicado óbvio, como receitas, especificações de produtos e afins.
Mas tudo tem solução e o primeiro passo é identificar conteúdo duplicado: basta ir ao Google e procurar por um trecho do texto que você quer testar, colocando o texto entre aspas. E para cada caso, uma solução diferente.
O Google Search Console também é de grande ajuda na identificação de conteúdo duplicado tomando por base título da página ou meta description. É bastante útil.
Piores Erros de SEO
A solução para esses problemas não é tão difícil, um pouco de pesquisa, uma consultoria especializada em SEO ou marketing digital com certeza pode analisar e resolver tudo para você.
Se precisar, conte comigo na Overdrive.
Se você é como eu e gosta de aprender para colocar a mão na massa ou saber se quem vai fazer, vai fazer certo, o ideal mesmo é um curso de SEO 😉
E para ajudar mais gente a não cometer esses erros, você pode compartilhar esse post!
Deixe um comentário