Legitimidade de otimizar um site para o site para carregar rápido para o Googlebot [fechado

StackOverflow https://stackoverflow.com/questions/2098626

Pergunta

A pergunta que tenho é um pouco ética.

Eu li aqui O Google oferece um pouco mais de influência aos sites que são otimizados para carregar rapidamente. Obviamente, isso facilita o trabalho do Google, usando menos recursos e é uma experiência melhor para todos, então por que não recompensá -lo?

O processo real de encontrar gargalos e melhorar a velocidade de carga da página é bem compreendido atualmente. Usar ferramentas como Yslow e reduzir o número de arquivos está se tornando prática padrão (o que é ótimo!)

Então É justo / inteligente / kosher servir o conteúdo personalizado do GoogleBot (ou outro bot de pesquisa) que baixará mais rápido? (ou seja, sem javasript, imagens ou css) ou seria um trapaceiro e jogaria seu site em limbo, insondável do Google?

Pessoalmente, prefiro não arriscar, eu realmente gostaria de melhorar o desempenho dos meus visitantes, independentemente. Mas, como está, não há muita informação sobre o assunto, então imaginei que o jogaria lá fora.


EDITAR:

Encontrei algumas informações novas que poderiam levar em consideração.

Das ferramentas de webmasters do Google: http://www.google.com/support/webmasters/bin/answer.py?answer=158541&hl=en

O tempo de carregamento da página é o tempo total a partir do momento em que o usuário clica em um link para sua página até o momento em que a página inteira é carregada e exibida em um navegador. É coletado diretamente de usuários que instalaram a barra de ferramentas do Google e ativou o recurso opcional PageRank.

Não há garantia de que eles usariam o mesmo algoritmo para classificar páginas nos resultados da pesquisa, mas pode realmente mostrar que é o real Experiência do usuário que mais importa.

Foi útil?

Solução

Ninguém pode dizer com certeza exatamente para o que o Google detectará e dingá seu site; Eles mantêm seus algoritmos em segredo. No entanto, eles geralmente desaprovam qualquer pessoa que sirva conteúdo diferente do Googlebot do que serve em geral; E se eles o pegarem, é provável que reduza seu PageRank para isso.

Realmente, a pergunta se torna por que você gostaria de fazer isso? Se você fizer sua página carregar mais rápido para o Googlebot, também o carregue mais rápido para seus clientes. A pesquisa mostrou que apenas um décimo de segundo tempo de carga mais longo pode perder os clientes; Por que você gostaria de obter mais clientes do Google apenas para perdê -los com um site lento?

Eu diria que isso não vale o risco; Basta melhorar seu site e torná -lo mais rápido para todos, em vez de tentar servir páginas diferentes do GoogleBot.

Outras dicas

(ou seja, sem javasript, imagens ou css)

Faça -os JS, CSS externos. O Google não vai tocá -lo (com muita frequência) - ou você pode bloqueá -lo via robots.txt, mas isso é desnecessário)

Faça todas as imagens repetidas sprites. Carregue a grande imagem de forma assíncrona via JS após o evento OnLoad do corpo do documento.

Isso também é bom para o usuário, pois o site se renderiza mais rapidamente até que eles vejam alguma coisa.

Enquanto o conteúdo principal for o mesmo para o Google e o visitante médio da primeira vez e, se não houver intenção de líder, tudo bem e uma ótima estratégia.

Não se preocupe muito com nenhuma penalidade possível. Contanto que não haja intenção de lâmpada, é principalmente bom.

O que não é ok para entregar o Google com base no agente do usuário, algo principalmente diferente. (aqui é melhor ser salvo do que remediar)

Confira as diretrizes do Google Webmaster: http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=35769

Basicamente, isso se decompõe: você precisa dar ao Googlebot e aos espectadores exatamente a mesma experiência, exceto quando o Googlebot não pode participar da experiência. Um exemplo notável seria logins. Páginas da Web de notícias frequentemente pule as páginas de login para o Googlebot, porque o Googlebot não pode/não se inscreve em contas.

Eu imaginaria que o Google não procuraria ativamente as páginas otimizadas/priorizadas para o Googlebot, mas se alguma vez achassem uma, eles abaixariam o violador como um martelo.

Licenciado em: CC-BY-SA com atribuição
Não afiliado a StackOverflow
scroll top