كيفية حفظ صفحة HTML عامة بجميع الوسائط والحفاظ على هيكلها

StackOverflow https://stackoverflow.com/questions/79612

سؤال

أبحث عن تطبيق Linux (أو ملحق Firefox) يسمح لي باستخلاص نموذج HTML بالحجم الطبيعي والحفاظ على سلامة الصفحة.يقوم Firefox بعمل مثالي تقريبًا ولكنه لا يلتقط الصور المشار إليها في CSS.

يحصل ملحق Scrabbook لمتصفح Firefox على كل شيء، ولكنه يسطح بنية الدليل.

لا أمانع كثيرًا إذا أصبحت جميع المجلدات تابعة لصفحة الفهرس.

هل كانت مفيدة؟

المحلول

يرى انعكاس موقع الويب باستخدام wget

wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com

نصائح أخرى

هل جربت wget؟

wget -r يفعل ما تريد، وإذا لم يكن الأمر كذلك، فهناك الكثير من العلامات لتكوينه.يرى man wget.

خيار آخر هو curl, ، وهو أقوى.يرى http://curl.haxx.se/.

النقل الفضائي برو عظيم لهذا النوع من الشيء.يمكنك توجيهه إلى مواقع الويب الكاملة وسيقوم بتنزيل نسخة محليًا مع الحفاظ على بنية الدليل، واستبدال الروابط المطلقة بروابط نسبية حسب الضرورة.يمكنك أيضًا تحديد ما إذا كنت تريد ربط المحتوى من مواقع الويب الأخرى التابعة لجهات خارجية من الموقع الأصلي.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top