Quelle est la procédure pour arrêter les robots et les scanners malveillants qui ralentissent un site?

StackOverflow https://stackoverflow.com/questions/2542242

  •  23-09-2019
  •  | 
  •  

Question

Que dois-je faire pour empêcher les utilisateurs de scanners en cours d'exécution ou des robots de publication automatique contre mon site qui ralentirait le traitement du site?

Est-il suffisant pour horodater chaque poste utilisateur effectue et de créer un délai d'affichage? Combien de temps d'un intervalle devrait-il y avoir?

Que puis-je faire d'autre que te ci-dessus et captchas sur les messages de formulaire?

Merci

Était-ce utile?

La solution

Un intervalle de temps est une bonne idée et est utilisé sur le débordement de pile. Différentes opérations devraient avoir des limites de temps différentes en fonction:

  1. À quelle fréquence les utilisateurs ordinaires sont susceptibles de vouloir utiliser cette fonctionnalité.
  2. Comment l'opération intensive est.

Si vous avez une opération qui nécessite beaucoup de temps de traitement, vous pouvez définir la limite de cette opération plus élevé que pour une opération relativement simple.

Stack Overflow combine les limites de temps avec captchas pour les postes de montage. Si vous modifiez trop souvent, vous devez passer un test CAPTCHA.

Autres conseils

Je googlé cela il y a un an et trouvé une liste de « mauvais connus useragents », que j'ajouté à mon .htaccess pour bloquer ceux d'accéder à mon blog . ce petit changement a eu un impact significatif sur mon utilisation de la bande passante.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top