سؤال

هل يعرف أي شخص أي حلول لإبقاء البيانات أكبر ، من 1 ميجابايت في memcached؟

هذه ليست مشكلة كبيرة لخفض البيانات الكبيرة إلى قطع 1 ميغابايت قبل الإعداد ودمج هذه القطع بعد الانتقال من memcached. ويمكن لهذه الخوارزمية العمل بشفافية للمستخدمين.

يمكن أن يعمل هذا على قاعدة هذا المقتطف http://www.djangosnippets.org/snippets/488/

هل كانت مفيدة؟

المحلول

يمكنك أن تطلب من Memcached زيادة السقف ، لكنها في كثير من الأحيان علامة على أنك تفعل شيئًا خاطئًا.

في معظم الأوقات ، عندما نحفر في الأشياء التي يحاول الناس القيام بها بالأشياء الكبيرة ، فإنهم يدعمون أنفسهم في زاوية ويبدأون في طرح أسئلة مثل "حسنًا ، كيف يمكنني طلب فقط جزء من هذا الكائن؟ "

في بعض الأحيان ، هناك حاجة مشروعة لكائنات أكبر (لذلك نحن ندعم ذلك).

نصائح أخرى

هل راجعت إذا كان Gzipping الخاص بك يساعد؟ بالنسبة لي ، خفضت خلفيتي إلى 200 كيلو بايت والآن تناسب تمامًا مع Memcached. و Sitemap Bots ليس لديها أي مشاكل مع GZIP هذه الأيام.

كان لدي مشكلة مماثلة في تخزين قوائم طويلة مع نتائج مستطيل. ساعد mymodel.object.defer ('dumber_data_field1' ، 'muge_data_field2') في استبعاد كمية كبيرة من البيانات من النتائج وحل المشكلة بالنسبة لي. الأمل سوف يساعد شخص آخر أيضا.

يمكنك إعداد وظيفة cron التي تحصل على sitemap (التي تم إنشاؤها بواسطة إطار Sitemap Django) وتحفظ هذا إلى ملف. ثم قدم هذا الملف كوسائط ثابتة (عبر Nginx أو Apache ، وليس عبر Django Ofcourse ...)

curl -o /path-to-static-media/sitemap.xml http://yoursite.com/view-that-generates-sitemap/sitemap.xml
مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top