Qual è la procedura per l'arresto robot e scanner dannosi che rallentano un sito?

StackOverflow https://stackoverflow.com/questions/2542242

  •  23-09-2019
  •  | 
  •  

Domanda

Che cosa devo fare per impedire agli utenti di eseguire scanner o robot automatico di Scrittura contro il mio sito che potrebbe rallentare l'elaborazione sito?

E 'sufficiente timestamp ogni post un utente effettua e creare un ritardo distacco? Quanto tempo di un intervallo dovrebbe esserci?

Che altro posso fare oltre a te sopra e captcha su posti di forma?

grazie

È stato utile?

Soluzione

Un intervallo di tempo è una buona idea ed è usato su Stack Overflow. Diverse operazioni dovrebbero avere diversi limiti di tempo a seconda:

  1. Con quale frequenza gli utenti comuni sono propensi a voler utilizzare tale funzione.
  2. Come intensa l'operazione è.

Se si dispone di un'operazione che richiede un sacco di tempo di elaborazione, si potrebbe desiderare di impostare il limite di quella operazione superiore a quello di un'operazione relativamente semplice.

Stack Overflow combina limiti di tempo con i CAPTCHA per la modifica dei post. Se si modifica troppo spesso si deve superare un test CAPTCHA.

Altri suggerimenti

Ho cercato su google questo un anno fa o giù di lì e ho trovato un elenco di noti 'cattivi useragents', che ho aggiunto al mio .htaccess per bloccare quelle di accedere al mio blog . questo piccolo cambiamento ha avuto un impatto significativo sul mio utilizzo della larghezza di banda.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a StackOverflow
scroll top