NewsHub.JP

NewsHub.JP

Google新技術で揺れたメモリー株 HBM需要の本当の論点

by 田中 健司
URLをコピーしました

はじめに

2026年3月26日の市場では、AI向けメモリー需要を象徴してきた関連株に一斉に売りが出ました。きっかけは、Google Researchが3月24日に発表した圧縮技術「TurboQuant」です。報道では「メモリー需要が6分の1になる」という強い表現が広がり、MicronやSK hynix、Samsung Electronicsなどに連想売りが入りました。

ただし、この受け止め方はかなり粗いです。TurboQuantが圧縮するのはAIシステム全体のメモリーではなく、主に推論時に増えやすいKVキャッシュです。学習用メモリー、モデル重み、サーバーDRAM、SSD、HBMの需要全体が一律に6分の1になるわけではありません。本稿では、Googleの新技術が本当に変えるものと、なお強いまま残る需要を分けて整理します。

「需要6分の1」は何を指しているのか

TurboQuantが削るのは推論時のKVキャッシュです

Google Researchの説明によると、TurboQuantは大規模言語モデルやベクトル検索で使う高次元ベクトルを、理論的に裏付けられた方法で強く圧縮する技術です。とくに注目されたのは、推論時に過去トークンの情報を保存するKVキャッシュの圧縮です。Googleは、KVキャッシュのメモリー使用量を少なくとも6分の1に抑えつつ、精度劣化なしで動かせると説明しています。OpenReview掲載の論文でも、長文ベンチマークや検索タスクで性能維持を示しています。

ここで重要なのは、母数の違いです。KVキャッシュは推論時の重要なボトルネックですが、AIサーバーが必要とするメモリーの全てではありません。モデル重みの保持、学習時の活性化メモリー、サーバーDRAM、ストレージ、ネットワークI/Oなど、AIインフラには複数の階層があります。TurboQuantはそのうち、長文推論で大きく膨らみやすい一領域に効く技術です。見出しだけで「AI向けメモリー投資全体が6分の1になる」と読むと、技術の射程を取り違えます。

さらに、Googleが示した高速化も条件付きです。研究ブログでは、H100上で注意計算が最大8倍高速になったと紹介していますが、これは計算の一部工程での比較です。実運用の推論システムでは、前後段の処理、モデルサイズ、ネットワーク、ストレージの待ち時間も絡みます。したがって、TurboQuantはかなり重要な前進ではあるものの、それだけでデータセンター全体の部材需要が崩れるという話ではありません。

市場が敏感に反応したのは「ハード前提」を揺らしたからです

それでも株価が下がったのには理由があります。AIブームの中でメモリー株は、「より大きなモデル、より長いコンテキスト、より高い搭載量」という前提で買われてきました。もしソフトウェア改善で同じ性能を少ないメモリーで出せるなら、その前提の一部が崩れます。WSJが3月26日に伝えた通り、MicronのほかSandisk、Western Digital、Seagateまで売られたのは、この懸念がメモリー全体に波及したためです。

つまり今回の下げは、足元の受注悪化を織り込んだというより、将来の需要曲線に対する再評価です。市場は、ハード需要がソフト改善にどこまで代替されるかを嫌います。特に、直前までメモリー株が「AIスーパーサイクル」の代表銘柄として買われていたため、反動も大きくなりました。

それでもHBM需要はすぐには崩れにくい

現実の需給はなお逼迫しています

ソフト技術の進歩と、現在の需給逼迫は両立します。Micronは3月18日の2026年度第2四半期決算で、売上高238.6億ドル、非GAAPベースEPS12.20ドル、営業キャッシュフロー119億ドルと過去最高水準を記録しました。会社側は「AI時代におけるメモリーの戦略的価値」を強調し、次四半期も大幅な増収増益を見込んでいます。さらに3月16日には、NVIDIA Vera Rubin向けHBM4を量産段階に入れたと発表しました。需給が実際に崩れているなら、こうした投資や量産移行のスピードは説明しにくいです。

SK hynixも同様です。1月28日公表の2025年通期決算では、売上高、営業利益、純利益の全てで過去最高を更新しました。年初の市場見通しでも、2026年のメモリー市場は30%成長し、HBM市場は58%拡大するとの想定を示しています。もちろん企業の見通しには自社寄りのバイアスがありますが、少なくとも現場の投資判断は「需要蒸発」ではなく「高付加価値メモリーの供給拡大」に向いています。

ここから分かるのは、TurboQuantのような効率化技術が出ても、HBM需要の土台は依然として広いということです。AIの訓練、推論、検索、エージェント運用が同時に増える局面では、単位当たりの必要量が少し減っても、総利用量が増える可能性があります。効率化でコストが下がるほど、より長いコンテキストや常時稼働AIが普及しやすくなるからです。

本当の焦点は「需要消滅」ではなく価値配分の組み替えです

とはいえ、今回のニュースを完全に無視してよいわけではありません。今後の論点は、メモリー需要が消えるかどうかより、どの階層へ価値が移るかです。KVキャッシュ圧縮が普及すれば、推論で必要なHBM搭載量の伸びが鈍る可能性はあります。その代わり、より安価なDRAM、低電力メモリー、SSD、さらには推論向けの新しい階層メモリーの重要性が上がるかもしれません。

実際、SK hynixとSandiskは2月、HBMとSSDの間を埋める推論向け新メモリー「HBF」の標準化を始めました。これは、業界自身が「学習中心のHBM一辺倒」から、「推論時代のメモリー階層最適化」へ視点を移し始めていることを示します。GoogleのTurboQuantも、同じ方向からその変化を後押しする技術です。要するに、市場の論点は「メモリー不要」ではなく、「どのメモリーが儲かるのか」へ移りつつあります。

注意点・展望

今回の報道で最も注意したいのは、「6分の1」という数字の使い方です。Googleが示したのは、あくまでKVキャッシュ圧縮の効果です。学習用HBM、モデル重み、一般サーバーDRAM、ストレージまで含めた需要削減率ではありません。また、研究成果がそのまま全ての商用モデルに広がるにも時間がかかります。モデル構造、推論エンジン、既存ソフトウェアとの統合には個別最適化が必要だからです。

一方で、中長期ではソフト効率化がメモリー企業の収益構造を変える可能性があります。特に推論比率が高まるほど、単純なビット成長だけでなく、消費電力、遅延、階層メモリーの設計が重要になります。投資家が見るべき指標も、単純なHBM出荷量だけでは足りません。推論向け製品構成、CXLやSSDの採用、価格維持力、そして各社がソフト最適化の波にどう対応するかまで含めて見る必要があります。

まとめ

GoogleのTurboQuantは、AI推論のボトルネックであるKVキャッシュを大幅に圧縮する重要技術です。その意味で、メモリー株が将来需要の前提を見直されたのは自然です。しかし、「AI向けメモリー需要が6分の1になる」という理解は明らかに飛躍しています。

現時点では、MicronやSK hynixの決算と量産計画が示す通り、HBMを中心とするAIメモリー需要はなお強いままです。本当に起きているのは需要消滅ではなく、推論時代へ向けた価値配分の組み替えです。今回の下げを読むうえで重要なのは、何が減るのかではなく、どの階層のメモリーが次に主役になるのかを見極めることです。

参考資料:

関連記事

最新ニュース