Domanda

Ho una domanda che non sono sicuro che possa essere raggiunto.Prendi nota che non sono uno specialista di ricerca di SharePoint. Abbiamo più fonti di contenuto.Tutto funziona bene.

Di recente, abbiamo aggiunto un nuovo sito che è enorme (1.5 TB!), e sfortunatamente abbiamo bisogno di strisciare il contenuto (solo una volta ogni pochi mesi come i dati sono statici).Il mio problema è che una volta iniziato un crawl completo di questo sito, uccide le altre fonti di contenuti crawl incrementali che devono funzionare ogni 10 minuti e normalmente finisce in circa 5 minuti.

Abbiamo altri server disponibili dove posso aggiungere più componenti di gattonio, ma per quanto ne so, che non risolverà il problema, lo allerà un po 'portando giù i tempi di gattonio.

Come posso specificare che il server 1 dovrebbe essere responsabile della sorgente 1 del contenuto 1 e del server 2 il resto.È possibile?Si noti inoltre che abbiamo una ricerca veloce, ma non ne sono sicuro se ciò possa risolvere il problema.Qualsiasi feedback sarebbe apprezzato.

È stato utile?

Soluzione

This isn't really possible without having multiple farms each with a separate Search Service Instance.

I would suggest you basically split out your 1.5TB of content into a separate farm with a dedicated Search instance. You can even use HOSTS entries on the crawl servers so they have their own local dedicated WFE servers for the crawl process to iterate through:

Farm 1 - Main Farm (business as usual) Farm 2 - 1.5TB Content and Specialist Search Farm

You can then federate the services you need between the two.

The alternative (which is a bit less documented but arguably more ideal) is to use the "Request Management" service which allows you to route specific service requests to specific servers. I don't really know too much about how that all works though..

Altri suggerimenti

I would do the following:

  1. priorize the incremental crawl with "high"
  2. priorize the new content source with "low"
  3. limit the requests to the new site in crawler impact rules
  4. start the crawl on friday night and pause it on monday - repeat until you have the main chunk indexed (use powershell to automate)

With this the impact should not be that hard.

Autorizzato sotto: CC-BY-SA insieme a attribuzione
Non affiliato a sharepoint.stackexchange
scroll top