我们有42美架是得到负荷的新1U和2O服务器的现实。一个人在这里估计,你需要离开之间的间隙服务器(1U)援助的冷却。

问题是,你呢?当看周围的数据中心,没有其他人似乎是,它也减少了多少,我们可以配合。我们正在使用Dell1850和2950硬件。

有帮助吗?

解决方案

根本没有,服务器和开关及Kvm,以及事业单位都设计成可上架堆放在海誓山盟。我是基于这几年的建设,因为并且数据中心,用AT&T

其他提示

你不需要离开之间的间隙系统的齿轮的设计应架安装。如果你是建设该系统自己你会需要选择的组件:一些CPU+主板运行的太热了,即使他们可以完全适合内部1U的情况。

戴尔的装备将被罚款。

你的 需要保持的空间和背后的架子清楚的混乱。大多数服务器今天的通道他们的气流从前到后,如果你不离开的足够开放的空气后该架,它将获得非常热的那及降低冷却能力。

在一个典型的48港口的开关板前是复盖RJ-45接和背通过冗余电力连接、电托进行连接,堆叠的港口和上行链路。许多1U网络交换机的路线,它们的侧面气流到另一侧,因为他们不能获得足够的空气通过迷宫的接头前面。所以,你还需要确保道旁边的架是相对开放,让关获得足够的气流。

在一个拥挤的服务器机架、整洁是很重要的。

我同意Unkwntech这一差距通常不需要,但我认为有两点需要注意:

1)设备是不是深深的其他可能有麻烦的通风,如果下面安装更深入的设备(见下文)。这当然是较少的关切,在通风良好的服务器房间。

TOP OF RACK
===============
===============
===============
===============
===============
======== (Shallow equipment, trapped hot air)

2)在安装的设备在内阁中,你通常必须离开几英寸明确的顶部允许适当的通风。

一般来说,没有。这是一种全点的1U服务器:如果需要额外的空间(即使是用于冷却)他们会给它一个更大的底盘,并呼吁它2O.在一些设计,那里的气流的控制,并且只有架应该是冷,差距甚至会产生反效果,因为它允许的热空气的回流和混合的冷空气在前面,减少制冷效率。甚至当你有差距的逻辑分组,你应该插他们的空白板控制的气流。

不幸的是,在实践中一些白牌供应商的偶尔推太难为,1U定,你会发现,如果你太多太靠近在一起,没有在偶尔的间隙于气流你有问题。这不是一个问题,具有良好质量的服务器和一个充足的冷却设计,而底端的市场可能会让你大吃一惊。

最后两个地方我曾有大型数据中心和他们栈他们所有的服务器和设备没有差距。该服务器的拥有充足的冷却用他们内部的球迷。它也建议来运行的机架上提出的地带穿孔的瓦的前的架和/C空返回上述后的架循环。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top