Pergunta

Eu tenho uma pergunta que não tenho certeza pode ser alcançada.Tome nota que não sou um especialista em pesquisa do SharePoint. Temos várias fontes de conteúdo.Tudo está correndo bem.

Recentemente, adicionamos um novo site que é massivo (1.5TB!), e infelizmente precisamos rastrear o conteúdo (apenas uma vez a cada poucos meses, pois os dados são estáticos).Meu problema é que, uma vez que eu começo um rastreamento completo deste site, ele mata as outras fontes de conteúdo incrementais que tem que rodar a cada 10 minutos e normalmente termina em cerca de 5 minutos.

Temos outros servidores disponíveis onde posso adicionar mais componentes de rastreamento, mas, tanto quanto eu sei, isso não resolverá o problema, ele apenas a aliviará um pouco trazendo os tempos de rastreamento.

Como posso especificar que o servidor 1 deve ser responsável pela fonte de conteúdo 1 e pelo servidor 2 do servidor.Isso é possível?Observe também que temos pesquisa rápida, mas não tenho certeza se isso pode resolver o problema também.Qualquer feedback seria apreciado.

Foi útil?

Solução

This isn't really possible without having multiple farms each with a separate Search Service Instance.

I would suggest you basically split out your 1.5TB of content into a separate farm with a dedicated Search instance. You can even use HOSTS entries on the crawl servers so they have their own local dedicated WFE servers for the crawl process to iterate through:

Farm 1 - Main Farm (business as usual) Farm 2 - 1.5TB Content and Specialist Search Farm

You can then federate the services you need between the two.

The alternative (which is a bit less documented but arguably more ideal) is to use the "Request Management" service which allows you to route specific service requests to specific servers. I don't really know too much about how that all works though..

Outras dicas

I would do the following:

  1. priorize the incremental crawl with "high"
  2. priorize the new content source with "low"
  3. limit the requests to the new site in crawler impact rules
  4. start the crawl on friday night and pause it on monday - repeat until you have the main chunk indexed (use powershell to automate)

With this the impact should not be that hard.

Licenciado em: CC-BY-SA com atribuição
Não afiliado a sharepoint.stackexchange
scroll top