شرعية لتحسين موقع إلى موقع تحميل سريع على googlebot [مغلقة]

StackOverflow https://stackoverflow.com/questions/2098626

سؤال

السؤال لدي هو جزء من أخلاقية واحدة.

قرأت هنا أن جوجل يعطي المزيد من النفوذ إلى المواقع التي هي الأمثل لتحميل بسرعة.ومن الواضح أن هذا يجعل جوجل المهمة أسهل باستخدام أقل الموارد هو تجربة أفضل للجميع, فلماذا لا ثواب ذلك ؟

العملية الفعلية العثور على الاختناقات وتحسين سرعة تحميل الصفحة يفهم جيدا هذه الأيام.باستخدام أدوات مثل YSlow و تقليل عدد الملفات أصبحت الممارسة القياسية (والتي هي كبيرة!)

لذلك هل من العدل / الذكية / كوشير لخدمة googlebot (أو البحث الأخرى بوت) مخصص المحتوى الذي سيتم تحميل أسرع ؟ (أيلا javasript, الصور, أو css) أم أنه العلم أنك غشاش و رمي موقع الويب الخاص بك إلى النسيان, خفي من جوجل ؟

أنا شخصيا أفضل عدم المخاطرة به, أود فعلا إلى تحسين أداء بلدي الزوار بغض النظر عن.ولكن كما هو عليه لا يوجد الكثير من المعلومات حول هذا الموضوع لذا فكرت أن رميها هناك.


تحرير:

لقد وجدت بعض المعلومات الجديدة التي قد عامل في.

من جوجل أدوات مشرفي المواقع: http://www.google.com/support/webmasters/bin/answer.py?answer=158541&hl=en

وقت تحميل الصفحة هو مجموع الوقت من لحظة ينقر المستخدم على رابط الصفحة الخاصة بك حتى وقت كامل تحميل الصفحة وعرضها في المتصفح. يتم جمعها مباشرة من المستخدمين الذين قاموا بتثبيت شريط أدوات Google ومكنت الاختياري الوقت المتوسط لتحميل الصفحة الرئيسية ميزة.

ليس هناك ما يضمن أنها سوف تستخدم نفس خوارزمية ترتيب الصفحات في نتائج البحث ، ولكن قد تظهر في الواقع أن هذا هو الفعلية تجربة المستخدم أن معظم الأمور.

هل كانت مفيدة؟

المحلول

لا يمكن لأحد أن يقول على وجه اليقين بالضبط ما ستكتشف Google موقعك وتخفيفه ؛ يحافظون على سرية الخوارزميات الخاصة بهم. ومع ذلك ، فإنهم يعبدون عمومًا أي شخص يخدم محتوى مختلفًا إلى GoogleBot أكثر من يخدمهم بشكل عام ؛ وإذا أمسكوا بك ، فمن المحتمل أن يقللوا من Pagerank الخاص بك.

حقا ، يصبح السؤال لماذا تريد أن تفعل هذا؟ إذا قمت بتحميل صفحتك بشكل أسرع لـ GoogleBot ، فيجب أن تجعله يتم تحميله بشكل أسرع لعملائك أيضًا. لقد أظهرت الأبحاث أن عددًا عاشرًا من وقت الحمل الأطول يمكن أن تفقد عملاءك ؛ لماذا تريد الحصول على المزيد من العملاء من Google لمجرد فقدانهم بموقع بطيء؟

أود أن أقول أن هذا لا يستحق المخاطرة على الإطلاق ؛ ما عليك سوى تحسين موقعك وجعله يتم تحميله بشكل أسرع للجميع ، بدلاً من محاولة تقديم صفحات GoogleBot المختلفة.

نصائح أخرى

(أيلا javasript, الصور, أو css)

جعلها JS, CSS خارجي.جوجل لن أتطرق إليها (غالبا) - (أو يمكنك منع هذا عن طريق robots.txt لكن هذا غير ضروري)

جعل جميع تكرار الصور العفاريت.تحميل صورة كبيرة بشكل غير متزامن عبر js بعد الحدث onload الوثيقة الجسم.

هذا هو أيضا جيدة للمستخدم ، مثل الموقع renderes أسرع حتى يروا شيئا.

طالما أن المحتوى الرئيسي هو نفسه بالنسبة جوجل متوسط المرة الأولى الزائر ، وإذا كان هناك لا تفوت الرائدة القصد انه موافق و استراتيجية كبيرة.

لا تقلق كثيرا حول أي وقد.طالما لا يوجد missleading القصد انها في معظمها موافق.

ما هو غير موافق على تقديم google استنادا إلى وكيل المستخدم شيئا مجورلي مختلفة.(هنا أنه من الأفضل أن يكون حفظ من آسف)

تحقق من إرشادات مشرف مواقع Google: http://www.google.com/support/webmasters/bin/answer.py؟hl=en&answer=35769

بشكل أساسي ينهار إلى: تحتاج إلى إعطاء GoogleBot والمشاهدين نفس التجربة بالضبط باستثناء المكان الذي لم يتمكن Googlebot من المشاركة في التجربة. مثال واحد ملحوظ سيكون تسجيل الدخول. غالبًا ما تخطي صفحات الويب الخاصة بـ News Web Pages Pages لـ googlebot ، لأن GoogleBOT لا يمكن/عدم الاشتراك في الحسابات.

أتصور أن Google لن تبحث بنشاط عن صفحات محسّنة/إعطاء الأولوية لـ GoogleBot ، ولكن إذا وجدوا ذلك ، فسيؤدي ذلك إلى انتهاكها مثل المطرقة.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top