考虑Windows托管的建立过程中,将定期下降的文件的磁盘复制到其他几个Windows服务器中的相同数据中心。其他的机会IIS,并为这些文件的群众。

总料库的大小,将数以百万计的文件、100GB的数据。它想要处理尽可能争的目标服务器,潜在的链接,例如超过一个广域网、冷启动清洁服务器

解决方案,我想对到目前为止:

  • 的队列会的系统和程序无论是唤醒,并定期复制或运行作为服务。
  • 圣昂贵、复杂、更加昂贵
  • 的、在一定时的工作-简单但有效的。大量的内部/不确定状态例如它在复印,错误。
  • 现repl。软件的成本低于圣的,但仍然昂贵的
  • UNC共用文件夹和不repl。高等待时间,降低成本仍然需要一个聚类方案。
  • DFS复制。

还有什么其他人使用吗?

有帮助吗?

解决方案

我用可脚本很好的成功对于这种类型的工作,1000的机器在我们的情况。我相信这是一个可以服务器为窗户,但是我没有用过它的任何其他Linux。

其他提示

虽然我们没有这些数以百万计的giga的数据管理,我们发送和收集大量的文件一夜之间我们的主要公司及其各机构在国外。我们一直在使用allwaysync一段时间。它允许文件夹/ftp同步。它有一个很好的界面,允许用文件夹和文件分析和比较,可以对课程计划。

UNC共用文件夹和没有复制具有许多缺点,特别是如果IIS是要利用北路作为主目录的网站。在压力下,你将会遇到 http://support.microsoft.com/default.aspx/kb/810886 因为数量的同时会议对服务器共享文件夹。还有,你会经历缓慢的IIS网站的创业公司由于IIS是要扫描/index/超高速缓冲存储器(取决于IIS版和ASP设置)UNC文件夹。

我已经看到了测试,与外勤部,是非常有希望的展览没有上述的限制。

我们使用的,在我的组织通过的文件的周围。它运行非常无缝和我觉得值得一建议。

此外,你没有做任何事情太疯狂了。如果你还精通在perl,我肯定你可以写一个快速脚本,这将满足你的需要。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top