como salvar uma página html pública com todas as mídias e preservar a estrutura
-
09-06-2019 - |
Pergunta
Procurando um aplicativo Linux (ou extensão do Firefox) que me permita copiar uma maquete HTML e manter a integridade da página.O Firefox faz um trabalho quase perfeito, mas não captura imagens referenciadas no CSS.
A extensão Scrabbook para Firefox obtém tudo, mas nivela a estrutura de diretórios.
Eu não me importaria muito se todas as pastas se tornassem filhas da página de índice.
Solução
Ver Espelhamento de site com wget
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
Outras dicas
Você tentou entendeu?
wget -r
faz o que você quer e, se não, há vários sinalizadores para configurá-lo.Ver man wget
.
Outra opção é curl
, que é ainda mais poderoso.Ver http://curl.haxx.se/.
Teleporte Pro é ótimo para esse tipo de coisa.Você pode apontá-lo para sites completos e ele fará o download de uma cópia localmente, mantendo a estrutura de diretórios e substituindo links absolutos por links relativos, conforme necessário.Você também pode especificar se deseja conteúdo de outros sites de terceiros vinculados ao site original.