Was ist Verfahren für Roboter und bösartige Scanner dass verlangsamen einer Website zu stoppen?

StackOverflow https://stackoverflow.com/questions/2542242

  •  23-09-2019
  •  | 
  •  

Frage

Was soll ich tun, damit die Benutzer-Scanner oder Auto Posting Roboter gegen meine Seite ausgeführt wird, dass die Website Verarbeitung verlangsamen würde?

Ist es ausreichend, jeden Pfosten einen Nutzer zu und eine Buchung Verzögerung erstellen? Wie lange ein Intervall soll es sein?

Was kann ich sonst noch neben te tue oben und Captchas auf Formular Beiträgen?

Dank

War es hilfreich?

Lösung

Ein Zeitintervall ist eine gute Idee und wird auf Stack-Überlauf verwendet. Verschiedene Operationen sollten unterschiedliche Fristen haben je nach:

  1. Wie oft normale Benutzer sind wahrscheinlich diese Funktion nutzen wollen.
  2. Wie intensiv ist der Betrieb.

Wenn Sie eine Operation haben, die viel Rechenzeit erfordert, könnte man die Grenze für diese Operation höher als für eine relativ einfache Operation festlegen möchten.

Stack-Überlauf verbindet Fristen mit CAPTCHAs für Beiträge zu bearbeiten. Wenn Sie bearbeiten zu oft müssen Sie einen CAPTCHA-Test.

Andere Tipps

ich das vor einem Jahr googeln oder so und gefunden eine Liste des bekannten‚schlechten Useragents‘, die ich zu meinem .htaccess hinzugefügt diejenigen, die aus dem Zugriff auf meinen Blog zu blockieren. diese kleine Änderung einen wesentlichen Einfluss auf meine Bandbreitennutzung hatte.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top