Pregunta

En realidad hemos quemado copias estáticas / Archivo de nuestros sitios web ASP.NET para los clientes muchas veces. Hemos utilizado WebZip hasta ahora, pero hemos tenido problemas con un sinfín de accidentes, descargado páginas no se vuelve a conectar correctamente, etc.

básicamente Necesitamos una aplicación que se arrastra y descargas estáticas copias de todo en nuestro sitio web asp.net (páginas, imágenes, documentos, css, etc) y luego procesa las páginas descargadas de manera que se pueden consultar de forma local sin conexión a Internet (deshacerse de direcciones URL absolutas en enlaces, etc.). La prueba más idiota, mejor. Esto parece una muy común y (relativamente) proceso simple, pero he intentado algunas otras aplicaciones y he estado muy impresionado

¿Alguien tiene software de archivo que recomendaría? ¿Alguien tiene un proceso muy simple que compartirían?

¿Fue útil?

Solución

En Windows, se puede ver en HTTrack . Es muy configurable que le permite establecer la velocidad de las descargas. Pero sólo puede apuntar a un sitio web y ejecutar también sin necesidad de configuración en absoluto.

En mi experiencia ha sido una herramienta muy buena y funciona bien. Algunas de las cosas que me gustan de HTTrack son:

  • licencia Open Source
  • Descargas
  • CV dejaron
  • Puede actualizar un archivo existente
  • Se puede configurar que sea no agresivo cuando se descarga para que no se pierda su ancho de banda y el ancho de banda del sitio.

Otros consejos

Se puede usar wget :

wget -m -k -K -E http://url/of/web/site

El Wayback Machine Downloader por hartator es sencillo y rápido.

Instalar a través de Rubí, a continuación, ejecutar con el dominio deseado y marca de tiempo opcional desde la Internet Archive .

sudo gem install wayback_machine_downloader
mkdir example
cd example
wayback_machine_downloader http://example.com --timestamp 19700101000000

cangrejo azul en OSX y WebCopier en Windows.

wget -r -k

... e investigar el resto de las opciones. Espero que haya seguido las siguientes pautas: http://www.w3.org /Protocols/rfc2616/rfc2616-sec9.html por lo que todos sus recursos están a salvo con peticiones GET.

Sólo uso:. wget -m <url>

Si sus clientes están archivando para los problemas de cumplimiento, usted quiere asegurarse de que el contenido puede ser autenticado. Las opciones que se muestran están muy bien para la visualización sencilla, pero no son legalmente admisibles. En ese caso, usted está en busca de marcas de tiempo y firmas digitales. Mucho más complicado si lo estás haciendo a ti mismo. Me gustaría sugerir un servicio como PageFreezer .

Para los usuarios de OS X, he encontrado la aplicación SiteSucker encontró aquí funciona bien sin tener que configurar nada, pero lo profundo que sigue los enlaces.

He estado usando HTTrack desde hace varios años. Se ocupa de toda la vinculación entre la página, etc. muy bien. Mi única queja es que no he encontrado una buena manera de mantenerlo limitado a un sub-sitio muy bien. Por ejemplo, si hay un sitio que www.foo.com/steve Quiero archivar, es probable que siga enlaces a www.foo.com/rowe y archivo que también. Por lo demás es grande. Altamente configurable y confiable.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top