Question

J'ai une application qui enregistre des clics par les utilisateurs.Le problème est que ces clics sont enfoncés sur Twitter, ce qui raccourcit chaque lien avec T.Co.Pour cette raison, Twitter semble frapper le lien entre 7-15 fois de différents IP, probablement de faire des choses comme la journalisation et la protection du spam.Le problème est que ces journaux 7-15 "clics" sur mon application ne venaient pas d'utilisateurs réels.

Je me demande s'il y a un moyen de détecter si une visite provient d'un utilisateur réel ou est simplement en train d'être curl'd ou quelque chose du genre d'un bot ou d'une araignée.

La méthode unique qui semblait avoir aurait pu fonctionner consistait à utiliser http://www.projecthoneypot.org/ L'API de voir si les IPS frappant mon site viennent de bots connus.J'ai trouvé un joyau pour aider (http://cl.ly/glt8) mais j'ai tenu à obtenir une erreur DNS nette tout en essayant de l'utiliser.

Je suis frais d'idées.J'apprécierais vraiment toute aide!

Était-ce utile?

La solution

Twitter doit définir correctement son en-tête HTTP User-Agent: afin que vous puissiez filtrer ceux-ci.Cela peut être forgé bien sûr, mais c'est un début.

Vous pouvez obtenir l'en-tête dans les rails avec request.headers["User-Agent"].

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top