CPUは水風呂で冷やす時代へ、空冷はもう限界
コメント
選択しているユーザー
液浸冷却は以前から度々話題にはなりますが、データセンターレベルでの運用は難しいのでは?というのが個人的な印象です。
ここでフォーカスしているのは、冷却に必要な消費電力であって、実際の運用コストはどうなのかが記載されていません。
まず液浸に使用するフロリナートが超絶コストが高い点。またフロリナートは定期的に補充をしないといけません。
また液体のため、物理的に動作するHDDには使用できません。
ブレードサーバのブレード部分のみ液浸にして、冷却するイメージです。
絶縁液体のため、故障時に取り外しても、取り付ける時はどうするのだろうかと(ホットスワップといってますが、コネクター部にフロリナートが入れば、接触不良と同じ状態にならないのだろうか??)
とりあえずどうやって冷却するのかは、こちらをご覧いただければ。
https://youtu.be/szR97yltH2c
追記で。
PUEという馴染みのない言葉がありますが、これはサーバ1台を動かす時に、そのサーバ自体の電力を100%として、データセンターでそのサーバを運用するとトータルして何倍の電力が必要か、という意味です。
この記事の1.05とは、サーバ1台かかる電力を100とした場合、プラス5%の電力で運用できるという意味です。
注目のコメント
KDDIのサーバー直接液浸の冷媒は、3Mのフロリナート、ノベックではないようです。気液二相のの方が冷却効率はいいのですが、3Mが製造中止を発表していますので、この方式を採用することは、事業の持続可能性が乏しいことになります。
GRC(米)のプログラムに参加しているENEOSも本事業に加わっていますので、冷媒はシリコーン油と推測されます。シリコーン油は絶縁性と潤滑性にも優れているので、液体のまま、つまり聴かさせずに単相で循環させて熱交換器によってサーバーの熱を外部に放出するやり方でしょう。
毒性もなく生分解性の冷却液だと想定しています。
マイクロソフトがサーバー液浸でその冷却の性能を実証していますが、3Mのノベックなので、これを実際にデータセンターに導入するのは、難しいでしょう。
半導体チップの発熱は、微細化が進むほどにちょっとした発熱でも大きな問題になります。エレクトロニクスの進歩が熱という制約にいかに立ち向かっていくか、光電融合のIOWN構想がこの制約回避につながるかどうかという文脈で考えると、RapidusにNTTが何を期待しているのかも、見えてきそうです。富士通では2018/09から販売してるみたいですね。
言葉だけ聞いた当時「メンテナンスするのにダイビングの資格が必要なのか??」って想像してしまったことを思い出しました…(^_^;
https://pr.fujitsu.com/jp/news/2018/09/6.html