Frage

Aus irgendeinem Grund, wenn ich überprüfen, auf den Google Webmaster-Tool „robots.txt Analyse“, um zu sehen, welche URLs durch unsere robots.txt-Datei blockiert sind, dann ist es nicht das, was ich erwarte. Hier ist ein Ausschnitt aus dem Anfang unserer Datei:

Sitemap: http://[omitted]/sitemap_index.xml

User-agent: Mediapartners-Google
Disallow: /scripts

User-agent: *
Disallow: /scripts
# list of articles given by the Content group
Disallow: http://[omitted]/Living/books/book-review-not-stupid.aspx
Disallow: http://[omitted]/Living/books/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx
Disallow: http://[omitted]/Living/sportsandrecreation/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx

Alles, was in den Skriptordner korrekt sowohl für den Googlebot und Medienpartner-Google blockiert. Ich kann sehen, dass die beiden Roboter die richtige Richtlinie sehen, weil der Googlebot sagt die Skripte von der Linie 7 gesperrt werden, während die Medienpartner-Google von der Linie 4. Und noch eine andere URL blockiert habe ich aus den nicht anerkannten Urls unter den zweiten Benutzer in -agent Richtlinie nicht blockiert werden!

Ich frage mich, ob mein Kommentar über absolute Urls Dinge schrauben ...

Einsicht wird geschätzt. Danke.

scroll top