2024年にはAIサーバーがサーバー市場の約65%を占める見込みです
トレンドフォース集邦コンサルティングが発表した最新の「AIサーバー産業分析レポート」によると、2024年には大手CSPs(クラウドサービス事業者)やブランド顧客などから高度なAIサーバーへの需要が高まっています。CoWoSの元だったtsmcやHBMの元だったSKハイニックス、Samsung、Micronなどが生産量を増やしてきたこともあり、今年の第2四半期以降は不足が大幅に解消されました。これにより、NVIDIAの主力ソリューションであるH100のリードタイムが従来の40-50週から16週未満に低下したことから、TrendForceはAIサーバー出荷台数が第2四半期に20%近く増加し、年間出荷台数は167万台に修正されると予測しています。年間41.5%の増加率となりました。
トレンドフォース集邦コンサルティングによると、今年、大手CSPs(クラウドサービス提供者)の予算は引き続きAIサーバーの調達に集中しており、一般型サーバーの成長率を追い抜き、AIサーバーの高い成長率に対し、一般型サーバーの出荷台数の伸び率は年間1.9%にとどまっています。また、サーバー全体の出荷に占めるAIサーバーの割合は12・2%で、2023年比で約3.4ポイント上昇すると予測しています。生産金額で見ると、AIサーバーの売上成長への貢献度は一般的なサーバーよりも大きく、2024年には生産金額1,870億ドル、成長率69%、サーバー全体の65%を占めると予測されています。
AIサーバーとAIチップの組み合わせについては、北米のCSPs業者(AWS、Metaなど)が自社ASIC(専用集積回路)を拡大していますが、中国本土の業者は以下のようになっています。アリババ、バイドゥ、ファーウェイなどが積極的に独自ASICの拡大に取り組んでおり、AIサーバー全体に占めるASICサーバーの割合は2024年までに26%、主流のGPU搭載AIサーバーの割合は約71%となっています。
AIサーバーに搭載されるAIチップのベンダーの分布を見ると、AIサーバーに搭載されるGPUだけでは、nvidiaのシェアが最も高く9割近くを占めていますが、AMD(ハイパーウェイ)のシェアは約8%にとどまっています。しかし、すべてのAIサーバー用AIチップにGPU、ASIC、FPGA(プログラマブル・ロジック・アレイ)を含めると、nvidiaの今年の市場占有率は約64%となります。
トレンドフォース・チッパン・コンサルティングの調査によると、2025年も市場は高レベルAIサーバーの需要が高く、特にnvidiaの次世代Blackwell (GB200、B100/B200など)がホッパーに取って代わり、CoWoSやHBMなどの需要を牽引すると予測されています。nvidiaのB100の場合、チップサイズがH100の2倍になり、より多くのCoWoSを消費することになり、2025年の主要サプライヤーであるtsmcのCoWoS生産規模は、年末までに550k ~ 600kとなり、8割近く成長すると予測されています。またHBMの使用量では、2024年に主流のH100に80GBのHBM3が搭載され、2025年にはnvidia Blackwell UltraやAMD MI350などの主力チップに288GBのHBM3eが搭載され、3倍以上に成長します。2025年にはHBM全体の供給量を倍増させることが期待されています。