سؤال

أحاول جمع البيانات من مدونة تحديث بشكل متكرر ، لذلك أنا ببساطة أستخدم حلقة فترة تتضمن urllib2.urolopen ("http: example.com") لتحديث الصفحة كل 5 دقائق لجمع البيانات التي أردتها.

لكنني لاحظت أنني لا أحصل على أحدث محتوى عن طريق القيام بذلك ، فهذا يختلف عما أراه عبر متصفح مثل Firefox ، وبعد التحقق من كود Firefox المصدر ونفس الصفحة التي أحصل عليها من Python ، وجدت ذلك إنها ذاكرة التخزين المؤقت WP Super التي تمنعني من الحصول على أحدث نتيجة.

وما زلت أحصل على نفس صفحة ذاكرة التخزين المؤقت حتى لو كنت محادثة رؤوس في رمز بيثون الخاص بي. لذلك أتساءل هل هناك طريقة لتمرير WP Super Cache؟ ولماذا لا يوجد مثل هذا ذاكرة التخزين المؤقت الفائقة في Firefox على الإطلاق؟

هل كانت مفيدة؟

المحلول

هل حاولت تغيير عنوان URL مع بعض البيانات غير الضارة؟ شيء من هذا القبيل:

import time
urllib2.urlopen("http:\example.com?time=%s" % int(time.time()))

سوف يتصل بالفعل http:\example.com?time=1283872559. ستتجاوز معظم أنظمة التخزين المؤقت ذاكرة التخزين المؤقت إذا كان هناك QueryString أو شيء غير متوقع.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top