AI(人工知能)インフラの新ルールを書き換えるべく、Nvidia Corp(NASDAQ:NVDA)が同社のBlackwell GPUを導入し、データセンターでの液体冷却の大変革を牽引している。
冷却課題が解決されたことで、Nvidiaは2025年第1四半期には液体冷却GB200サーバーラックの生産を拡大する予定であり、これによりAIサーバーエコシステムにおいて画期的な瞬間を迎えることになる。
液体冷却の課題が解決、優勝者が登場
AIサーバーの高密度熱の管理にクリティカルな液体冷却は、初期の段階では漏洩の問題を抱えていた。
しかし、冷却プレートの設計、マニホールド技術、そして厳格なテストの進歩によって、大量生産の道が開けた。
Cooler Master、AVC、そして新たに参入したAurasとデルタなどの主要企業が、Nvidiaの冷却部品の主要サプライヤーとして台頭しようとしている。
大事なのは製品の機能であり、コストでない
Vertivとデルタが電源供給の革新をリード
すでに先進的な冷却ポートフォリオを持つVertivは、ラックレベルの冷却におけるそのリーダーシップを裏付けるために、最近複数十億ドル規模の供給契約を含む提携を締結し続けている。
一方、Hon Hai Precisionや、Quantaなどの競合他社は、Microsoft Corp(NASDAQ:MSFT)やMeta Platforms Inc(NASDAQ:META)のような大規模データセンターに対応するため、コストメリットとデザインの柔軟性を利用して市場での影響力を拡大している。
また、液体冷却システムへの移行は、データセンターの電力消費の大幅な増加をもたらし、2028年までの10年間において年率17%のCAGRを記録すると予測されている。NvidiaのGB200ラックは、従来のシステムと比較してGPUの密度が2倍になり、電力要件が増加し、より高効率の電源装置への需要を推進している
このような変化により、デルタのような企業は、最先端の電源ソリューションに対する高い需要と、高いマージン、ASP(平均売価)の成長を実感することになる。
NvidiaのBlackwell GPUがAIパフォーマンスの向上だけでなく、データセンターの景観をも変えつつある。液体冷却と電源供給関連企業は、AI革命を支えるインフラの再定義に乗って、さらなる進化を遂げることになるだろう。
次のニュースを読む
画像提供:Shutterstock