Frage

Ich habe vor kurzem angefangen mit Google Webmaster-Tools .

war ich ziemlich überrascht, nur um zu sehen, wie viele Links Google indiziert versucht.

http://www.example.com/?c=123
http://www.example.com/?c=82
http://www.example.com/?c=234
http://www.example.com/?c=991

Diese sind alle Kampagnen, die als Links von Partnerseite existieren.

Für jetzt sind sie alle durch meine Roboter verweigert Datei, bis die Seite vollständig ist -. Wie jede Seite auf der Website

Ich frage mich, was der beste Ansatz mit Links zu behandeln ist wie das ist - bevor ich meine robots.txt-Datei weniger restriktiv machen.

Ich bin besorgt darüber, dass sie so unterschiedlich URLS behandelt werden und starten Sie in der Google-Suchergebnissen angezeigt. Sie entsprechen alle die gleiche Seite - geben oder nehmen. Ich möchte nicht die Menschen, sie zu finden, wie sie auf sie sind und klicken.

Mit dem besten Idee so weit ist, eine Seite zu machen, die eine Abfrage-Zeichenfolge enthält wie folgt:

 // DO NOT TRY THIS AT HOME. See edit below
 <% if (Request.QueryString != "") { %>

    <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

 <% } %>

Muss ich dies tun? Ist dies der beste Ansatz?

Edit: Dies erweist sich als kein guter Ansatz sein . Es stellt sich heraus, dass Google NOINDEX auf einer Seite ist zu sehen, die denselben Inhalt wie eine andere Seite hat, die nicht NOINDEX hat. Offenbar Zahlen dabei sind sie die gleiche Sache und die NOINDEX hat Vorrang. Meine Website verschwand vollständig von Google als Ergebnis. Caveat. Es könnte gewesen etwas anderes i zugleich tat, aber ich würde diesen Ansatz nicht riskieren

War es hilfreich?

Lösung

Dies ist die Art der Sache, dass rel="canonical" entworfen wurde. Google einen Blog-Artikel über sie geschrieben.

Andere Tipps

Ja, Google würde sich als unterschiedliche URLs interpretieren.

auf Ihrem Webserver Je könnten Sie einen Rewrite-Filter verwenden, um die Parameter für Suchmaschinen zu entfernen, zum Beispiel URL Rewrite-Filter für Tomcat oder mod umschreiben für Apache.

Persönlich würde ich nur entfernt mit den Tracking-Parametern auf die gleiche Seite umgeleitet werden.

Das scheint der beste Ansatz, wenn die Seite in einem eigenen Ordner vorhanden ist, in dem Fall, dass Sie die Datei robots.txt diesen Ordner einfach zu ignorieren ändern können.

Für Ressourcen, die nicht indiziert werden soll ich lieber eine einfache Rückkehr in der Seite zu laden, zu tun:

if (IsBot(Request.UserAgent)
    return;
Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top