Question

Je cherche une application Linux (ou une extension Firefox) qui me permette de gratter une maquette HTML et de conserver l’intégrité de la page. Firefox fait un travail presque parfait mais ne récupère pas les images référencées dans le CSS.

L’extension Scrabbook pour Firefox récupère tout, mais aplatit la structure des répertoires.

Cela ne me dérangerait pas si tous les dossiers devenaient des enfants de la page d'index.

Était-ce utile?

La solution

Voir Mise en miroir de sites Web avec wget

wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com

Autres conseils

Avez-vous essayé wget?

wget -r fait ce que vous voulez, sinon, il y a beaucoup de drapeaux pour le configurer. Voir man wget .

Une autre option est curl , qui est encore plus puissant. Voir http://curl.haxx.se/ .

Teleport Pro est idéal pour ce genre de choses. Vous pouvez le diriger vers des sites Web complets et il téléchargera une copie localement en maintenant la structure de répertoires et en remplaçant les liens absolus par des liens relatifs si nécessaire. Vous pouvez également spécifier si vous souhaitez que le contenu de sites Web tiers soit lié au site d'origine.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top