Question

J'ai deux serveurs Web dans un cluster au service d'une application Web.

Utilisation de MS Web Deploy pour pousser une nouvelle version de l'application sur un serveur, puis à nouveau pour synchroniser les fichiers sur l'autre serveur du cluster. Il semble être la chose la plus ordinaire à faire.

Mais ne serait-il un problemm, quand est déployé un serveur avec la nouvelle version, et l'autre est pas encore terminé. Sera-ce pas causer des problèmes, quand une page chargée avec la nouvelle version fait une demande de webservice et l'équilibreur envoie la demande au serveur avec l'ancienne version?

Quelle est la meilleure façon d'éviter cela?

Je pensais que sur les scripts un drainstop du serveur, que nous déployons pour, et assurez-vous qu'un seul serveur est en cours d'exécution à la fois. Mais je ne peux pas trouver quelqu'un d'autre, qui semble avoir écrit au sujet de la solution d'un tel. Et devinez que cela n'échelle pas très bien aussi.

Une autre solution pourrait être de fermer tous les serveurs lors de l'actualisation. Mais cela ne semble très intelligent.

Toutes les suggestions?

Était-ce utile?

La solution

Vous pouvez utiliser DFS afin que les fichiers sont essentiellement instantanément copiés sur l'autre serveur (s).

En outre, vous pouvez modifier les fichiers hôtes de chaque serveur afin que chaque serveur utilise ses propres services hébergés au lieu de passer par NLB et va potentiellement à un autre serveur. Il y a rarement une raison d'aller à un autre serveur lorsque vous êtes déjà sur un serveur, il ne provoque que des maux de tête, comme vous l'avez mentionné et diminue les performances.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top