Frage

Ich versuche, Daten von einem häufig aktualisieren Blog zu sammeln, so dass ich einfach eine while-Schleife verwenden, die urllib2.urlopen enthält ( „http: \ example.com“), um die Seite alle 5 Minuten zu aktualisieren, um die Daten, die ich zu sammeln wollte.

Aber ich merke, dass ich nicht den neuesten Inhalt bekommen, indem Sie dies, es ist anders als ich über Browser wie Firefox, und beide nach der Überprüfung des Quellcodes von Firefox und die gleichen Seite, die ich von Python zu bekommen, ich fand, dass es WP super-Cache ist, die mich daran hindern, das jüngste Ergebnis.

Und ich bekomme immer noch die gleiche Cache-Seite, auch wenn ich die Header in meinem Python-Code fälschen. So frage ich mich, ist es durch Pass WP Super Cache einen Weg? Und warum gibt es keine solche Super-Cache in Firefox überhaupt?

War es hilfreich?

Lösung

Have you tried changing the URL with some harmless data? Something like this:

import time
urllib2.urlopen("http:\example.com?time=%s" % int(time.time()))

It will actually call http:\example.com?time=1283872559. Most caching systems will bypass the cache if there's a querystring or it's something that isn't expected.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top