Pergunta

Eu tenho um site com o seguinte robots.txt na raiz:

User-agent: *
Disabled: /

User-agent: Googlebot 
Disabled: /

User-agent: Googlebot-Image
Disallow: /

e páginas dentro deste site estão sendo digitalizados por Googlebots todo o dia. Existe errado alguma coisa com o meu arquivo ou com o Google?

Foi útil?

Solução

Deve ser Disallow:, não Disabled:.

Outras dicas

Talvez dar a Google robots.txt verificador uma tentativa

O Google tem uma ferramenta de análise para verificação de entradas robots.txt, leia sobre isso aqui

Você também pode querer verificar os endereços IP dos robôs "párias" para ver se eles realmente são de propriedade da Google.

Também acredito que o bot vai para baixo a página e leva a primeira directiva que se aplica a ele. No seu caso, o Googlebot e o Googlebot-Imagem nunca veria suas directivas específicas, porque eles iriam respeitar o "User-Agent: *". First

Desconsidere esta resposta. Eu encontrei a informação que aponta para o que não é o caso. O bot deve encontrar o específico directiva-la e respeitá-lo

Licenciado em: CC-BY-SA com atribuição
Não afiliado a StackOverflow
scroll top