¿Cuál es el procedimiento para detener los robots y los escáneres maliciosos que ralentizan un sitio?

StackOverflow https://stackoverflow.com/questions/2542242

  •  23-09-2019
  •  | 
  •  

Pregunta

¿Qué debo hacer para evitar que los usuarios ejecuten escáneres o robots de contabilización automática contra mi sitio que retrasar el procesamiento en el sitio?

¿Es suficiente para cada puesto de marca de tiempo que un usuario realiza y crear un retraso de entradas? ¿Cuánto tiempo de un intervalo debería haber?

¿Qué más puedo hacer además te arriba y captchas en los postes del formulario?

gracias

¿Fue útil?

Solución

Un intervalo de tiempo es una idea buena y se utiliza desbordamiento de pila. Diferentes operaciones deben tener plazos diferentes dependiendo de:

  1. ¿Con qué frecuencia los usuarios normales es probable que desee utilizar dicha función.
  2. ¿Cómo intensiva sea la operación.

Si usted tiene una operación que requiere una gran cantidad de tiempo de procesamiento, es posible que desee establecer el límite en que la operación mayor que para una operación relativamente sencilla.

desbordamiento de pila combina plazos con letras cifradas para la edición de mensajes. Si edita con demasiada frecuencia que tiene que pasar una prueba de CAPTCHA.

Otros consejos

I Googled esto hace un año más o menos y se encontró una lista de conocidos 'malos' AgentesDeUsuario, que he añadido a mi .htaccess para bloquear el acceso a los de mi blog . este pequeño cambio tuvo un impacto significativo en mi uso de ancho de banda.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top