Domanda

Sto cercando un web crawler che funziona correttamente con MOSS 2007 e SP 2010. Fondamentalmente, io voglio questo crawler per afferrare lo Sharepoint (MOSS 2007 e SP 2010) del sito e memorizzarla localmente. Questo web crawler (detto anche "web robot" o "ragnatela") pagine afferrare web (comprese le risorse come immagini e CSS, ecc ...), scaricarli in locale e regolare i collegamenti ipertestuali di risorse per puntare alla risorse trasferite a livello locale.

Ho trovato alcune risorse, i campioni e gli strumenti. Ma non ho visto alcuna specifica uno per SharePoint. Inoltre, il problema principale che sto affrontando è come specificare il livello di profondità di strisciare?

Ad esempio: Ho un Web Application SharePoint che si compone di 3 SiteCollections e ogni SiteCollection contiene 9 livelli di siti secondari. Si supponga che voglio solo strisciare 5 livelli di siti secondari della seconda SiteCollection. Beh, naturalmente dovrebbe essere fornito l'URL di quella SiteCollection esatto, ma poi, come posso strisciare solo 5 livelli dei siti secondari?

Non sto chiedendo di sviluppare una web part per questo scopo. Sto chiedendo circa:? Come posso creare un'applicazione web che è in grado di accedere e strisciare qualsiasi on-line sito di SharePoint (MOSS 2007 o SP 2010) in base al livello di profondità

Io apprezzo molto ogni ingresso!

È stato utile?

Soluzione

Hai avuto uno sguardo a SharePoint Workspace 2010 per salvare copie locali dei contenuti?

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a sharepoint.stackexchange
scroll top