Qual è la procedura per l'arresto robot e scanner dannosi che rallentano un sito?
-
23-09-2019 - |
Domanda
Che cosa devo fare per impedire agli utenti di eseguire scanner o robot automatico di Scrittura contro il mio sito che potrebbe rallentare l'elaborazione sito?
E 'sufficiente timestamp ogni post un utente effettua e creare un ritardo distacco? Quanto tempo di un intervallo dovrebbe esserci?
Che altro posso fare oltre a te sopra e captcha su posti di forma?
grazie
Soluzione
Un intervallo di tempo è una buona idea ed è usato su Stack Overflow. Diverse operazioni dovrebbero avere diversi limiti di tempo a seconda:
- Con quale frequenza gli utenti comuni sono propensi a voler utilizzare tale funzione.
- Come intensa l'operazione è.
Se si dispone di un'operazione che richiede un sacco di tempo di elaborazione, si potrebbe desiderare di impostare il limite di quella operazione superiore a quello di un'operazione relativamente semplice.
Stack Overflow combina limiti di tempo con i CAPTCHA per la modifica dei post. Se si modifica troppo spesso si deve superare un test CAPTCHA.
Altri suggerimenti
Ho cercato su google questo un anno fa o giù di lì e ho trovato un elenco di noti 'cattivi useragents', che ho aggiunto al mio .htaccess per bloccare quelle di accedere al mio blog . questo piccolo cambiamento ha avuto un impatto significativo sul mio utilizzo della larghezza di banda.