Frage

Ich denke, all alle anderen das Gegenteil möchte, aber ich brauche das „Verzeichnis“ Struktur einer ASP.NET-Website zu verbergen.

Aus diesem Grund denke ich

  1. Mit dem robots.txt folgt als ...

    User-agent: * Disallow: /

  2. Mit URL-Rewriting, Geisterbahnen machen

  3. deaktivieren Durchsuchen von Verzeichnissen. (Verzeichnisliste verweigert ...)

  4. Mit .ashx Bildern zu dienen.

  5. Weitere Möglichkeiten, dass Sie könnte darauf hindeuten,.

Mit anderen Worten würde ich nicht wie jemand mit einem „Downloader-structrure Leser“, meine Seite abzustreifen.

Wie Sie sehen das sekurity Tag fehlt:)

P. S. Ich kümmere mich nicht um SEO

War es hilfreich?

Lösung

Eine Site-Downloader wie wget -r funktioniert trotzdem. Es folgt Links und schert sich nicht um Verzeichnisse (mit Ausnahme der Tatsache, dass Sie die Tiefe begrenzen). Wenn Sie legit Crawlern wie Google ausschließen möchten, robots.txt ist in Ordnung. wget und Rogue-Crawler dagegen tun es aber nicht.

Die einzige wirklich gute Lösung ist requriring entweder eine Anmeldung (aber das immer noch schützt nicht gegen die Menschen, die gerade hatte verwenden wget Ihre ganze Website zum Download bereit, sie werden es nur schaffen, mit der Login-Daten / Session-ID ) oder Ihre Inhalte mit lästigen CAPTCHAs (pISST legitimen Benutzer schnell) oder machen die gesamte Website verwendet JavaScript / AJAX-Display / Last Inhalt unübersichtlich. Das macht die User Experience noch besser (wenn es richtig gemacht) und sperrt effektiv heraus die meisten / alle Raupen.

Andere Tipps

Wenn Sie Benutzer möchten in der Lage sein, Ihre Website zu durchsuchen, Sie gehen offensichtlich Links zu anderen Seiten zu müssen. Um (Versuch) machen diese Links für einen Crawler schwierig, Sie könnten versuchen, alle Ihre Links dynamisch in Javascript zu machen. Dies bedeutet einen Roboter, der nicht vollständig DOM-Rendering wie ein Browser macht wont die Links extrahieren können. Doch natürlich jemand könnte einen Blick auf Ihre Website und bauen etwas, das Parsing aus den Links tut, wenn sie so geneigt sind.

Mit Hinsicht zu verstecken Verzeichnisstruktur von Benutzern und / oder Bots, dann ja werden Sie irgendeine Art von URL implementieren müssen Umschreiben:

Outbound: /assets/images/image.jpg -> /somecode.jpg
Inbound:  /somecode.jpg -> /assets/images/image.jpg

sonst werden sie in der Lage sein, Links zu überprüfen (ob statisch oder dynamisch gerendert) in ihrem Browser und Verzeichnisstruktur zu bestimmen.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top