come salvare una pagina HTML pubblica con tutti i media e preservare la struttura
-
09-06-2019 - |
Domanda
Alla ricerca di un'applicazione Linux (o estensione Firefox) che mi permetta di creare un mockup HTML e mantenere l'integrità della pagina.Firefox fa un lavoro quasi perfetto ma non cattura le immagini a cui si fa riferimento nel CSS.
L'estensione Scrabbook per Firefox ottiene tutto, ma appiattisce la struttura delle directory.
Non mi dispiacerebbe molto se tutte le cartelle diventassero figli della pagina indice.
Soluzione
Vedere Mirroring del sito Web con wget
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
Altri suggerimenti
Hai provato wget?
wget -r
fa quello che vuoi e, in caso contrario, ci sono molti flag per configurarlo.Vedere man wget
.
Un'altra opzione è curl
, che è ancora più potente.Vedere http://curl.haxx.se/.
Teletrasporto Pro è fantastico per questo genere di cose.Puoi indirizzarlo a siti Web completi e ne scaricherà una copia localmente mantenendo la struttura delle directory e sostituendo i collegamenti assoluti con quelli relativi, se necessario.Puoi anche specificare se desideri contenuti di altri siti Web di terze parti collegati al sito originale.