La sauvegarde du contenu du site en HTML pour une utilisation hors connexion avec le travail de lien

StackOverflow https://stackoverflow.com/questions/3742351

Question

Je vais avoir un site fait en quelque 10 wordpress pages. Je dois le sauver, tout le site avec les liens de travail pour hors-ligne utilisent chaque fois que je mettre à jour le contenu. Maintenant, ce que je fais est alors enregistrer chaque page de tout lien etc .. mais je veux le faire .. donc je la programmation ne devez pas faire manuellement ou y at-il déjà des outils ou classe?

Mise à jour: Je télécharge pour créer une sorte de documentation en ligne de choses, qui sera distribué sur CD si les liens doivent être relatif.

Était-ce utile?

La solution

Utilisez wget , cochez l'option -k

  -k,  --convert-links      make links in downloaded HTML point to local files.

Référence: http://www.linuxask.com / questions / miroir un site web utilisant-wget

Autres conseils

Si vous définissez les liens vers un chemin relatif (par exemple href="/foo/bar.html"), cela peut être accompli.

Dans le cas contraire, je suggère la mise en place Apache ou IIS sur votre ordinateur local pour être votre environnement de test, et la télécharger sur le serveur Web lorsque votre code est prêt pour la production.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top