Google新技術で揺れたメモリー株 HBM需要の本当の論点
はじめに
2026年3月26日の市場では、AI向けメモリー需要を象徴してきた関連株に一斉に売りが出ました。きっかけは、Google Researchが3月24日に発表した圧縮技術「TurboQuant」です。報道では「メモリー需要が6分の1になる」という強い表現が広がり、MicronやSK hynix、Samsung Electronicsなどに連想売りが入りました。
ただし、この受け止め方はかなり粗いです。TurboQuantが圧縮するのはAIシステム全体のメモリーではなく、主に推論時に増えやすいKVキャッシュです。学習用メモリー、モデル重み、サーバーDRAM、SSD、HBMの需要全体が一律に6分の1になるわけではありません。本稿では、Googleの新技術が本当に変えるものと、なお強いまま残る需要を分けて整理します。
「需要6分の1」は何を指しているのか
TurboQuantが削るのは推論時のKVキャッシュです
Google Researchの説明によると、TurboQuantは大規模言語モデルやベクトル検索で使う高次元ベクトルを、理論的に裏付けられた方法で強く圧縮する技術です。とくに注目されたのは、推論時に過去トークンの情報を保存するKVキャッシュの圧縮です。Googleは、KVキャッシュのメモリー使用量を少なくとも6分の1に抑えつつ、精度劣化なしで動かせると説明しています。OpenReview掲載の論文でも、長文ベンチマークや検索タスクで性能維持を示しています。
ここで重要なのは、母数の違いです。KVキャッシュは推論時の重要なボトルネックですが、AIサーバーが必要とするメモリーの全てではありません。モデル重みの保持、学習時の活性化メモリー、サーバーDRAM、ストレージ、ネットワークI/Oなど、AIインフラには複数の階層があります。TurboQuantはそのうち、長文推論で大きく膨らみやすい一領域に効く技術です。見出しだけで「AI向けメモリー投資全体が6分の1になる」と読むと、技術の射程を取り違えます。
さらに、Googleが示した高速化も条件付きです。研究ブログでは、H100上で注意計算が最大8倍高速になったと紹介していますが、これは計算の一部工程での比較です。実運用の推論システムでは、前後段の処理、モデルサイズ、ネットワーク、ストレージの待ち時間も絡みます。したがって、TurboQuantはかなり重要な前進ではあるものの、それだけでデータセンター全体の部材需要が崩れるという話ではありません。
市場が敏感に反応したのは「ハード前提」を揺らしたからです
それでも株価が下がったのには理由があります。AIブームの中でメモリー株は、「より大きなモデル、より長いコンテキスト、より高い搭載量」という前提で買われてきました。もしソフトウェア改善で同じ性能を少ないメモリーで出せるなら、その前提の一部が崩れます。WSJが3月26日に伝えた通り、MicronのほかSandisk、Western Digital、Seagateまで売られたのは、この懸念がメモリー全体に波及したためです。
つまり今回の下げは、足元の受注悪化を織り込んだというより、将来の需要曲線に対する再評価です。市場は、ハード需要がソフト改善にどこまで代替されるかを嫌います。特に、直前までメモリー株が「AIスーパーサイクル」の代表銘柄として買われていたため、反動も大きくなりました。
それでもHBM需要はすぐには崩れにくい
現実の需給はなお逼迫しています
ソフト技術の進歩と、現在の需給逼迫は両立します。Micronは3月18日の2026年度第2四半期決算で、売上高238.6億ドル、非GAAPベースEPS12.20ドル、営業キャッシュフロー119億ドルと過去最高水準を記録しました。会社側は「AI時代におけるメモリーの戦略的価値」を強調し、次四半期も大幅な増収増益を見込んでいます。さらに3月16日には、NVIDIA Vera Rubin向けHBM4を量産段階に入れたと発表しました。需給が実際に崩れているなら、こうした投資や量産移行のスピードは説明しにくいです。
SK hynixも同様です。1月28日公表の2025年通期決算では、売上高、営業利益、純利益の全てで過去最高を更新しました。年初の市場見通しでも、2026年のメモリー市場は30%成長し、HBM市場は58%拡大するとの想定を示しています。もちろん企業の見通しには自社寄りのバイアスがありますが、少なくとも現場の投資判断は「需要蒸発」ではなく「高付加価値メモリーの供給拡大」に向いています。
ここから分かるのは、TurboQuantのような効率化技術が出ても、HBM需要の土台は依然として広いということです。AIの訓練、推論、検索、エージェント運用が同時に増える局面では、単位当たりの必要量が少し減っても、総利用量が増える可能性があります。効率化でコストが下がるほど、より長いコンテキストや常時稼働AIが普及しやすくなるからです。
本当の焦点は「需要消滅」ではなく価値配分の組み替えです
とはいえ、今回のニュースを完全に無視してよいわけではありません。今後の論点は、メモリー需要が消えるかどうかより、どの階層へ価値が移るかです。KVキャッシュ圧縮が普及すれば、推論で必要なHBM搭載量の伸びが鈍る可能性はあります。その代わり、より安価なDRAM、低電力メモリー、SSD、さらには推論向けの新しい階層メモリーの重要性が上がるかもしれません。
実際、SK hynixとSandiskは2月、HBMとSSDの間を埋める推論向け新メモリー「HBF」の標準化を始めました。これは、業界自身が「学習中心のHBM一辺倒」から、「推論時代のメモリー階層最適化」へ視点を移し始めていることを示します。GoogleのTurboQuantも、同じ方向からその変化を後押しする技術です。要するに、市場の論点は「メモリー不要」ではなく、「どのメモリーが儲かるのか」へ移りつつあります。
注意点・展望
今回の報道で最も注意したいのは、「6分の1」という数字の使い方です。Googleが示したのは、あくまでKVキャッシュ圧縮の効果です。学習用HBM、モデル重み、一般サーバーDRAM、ストレージまで含めた需要削減率ではありません。また、研究成果がそのまま全ての商用モデルに広がるにも時間がかかります。モデル構造、推論エンジン、既存ソフトウェアとの統合には個別最適化が必要だからです。
一方で、中長期ではソフト効率化がメモリー企業の収益構造を変える可能性があります。特に推論比率が高まるほど、単純なビット成長だけでなく、消費電力、遅延、階層メモリーの設計が重要になります。投資家が見るべき指標も、単純なHBM出荷量だけでは足りません。推論向け製品構成、CXLやSSDの採用、価格維持力、そして各社がソフト最適化の波にどう対応するかまで含めて見る必要があります。
まとめ
GoogleのTurboQuantは、AI推論のボトルネックであるKVキャッシュを大幅に圧縮する重要技術です。その意味で、メモリー株が将来需要の前提を見直されたのは自然です。しかし、「AI向けメモリー需要が6分の1になる」という理解は明らかに飛躍しています。
現時点では、MicronやSK hynixの決算と量産計画が示す通り、HBMを中心とするAIメモリー需要はなお強いままです。本当に起きているのは需要消滅ではなく、推論時代へ向けた価値配分の組み替えです。今回の下げを読むうえで重要なのは、何が減るのかではなく、どの階層のメモリーが次に主役になるのかを見極めることです。
参考資料:
- TurboQuant: Redefining AI efficiency with extreme compression - Google Research
- TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate - OpenReview
- Google’s TurboQuant reduces AI LLM cache memory capacity requirements by at least six times - Tom’s Hardware
- Micron Technology, Inc. Reports Results for the Second Quarter of Fiscal 2026 - Micron
- Micron in High-Volume Production of HBM4 Designed for NVIDIA Vera Rubin - Micron
- SK hynix Announces FY25 Financial Results - SK hynix Newsroom
- 2026 Market Outlook – Focus on the HBM-Led Memory Supercycle - SK hynix Newsroom
- SK hynix and Sandisk Begin Global Standardization of Next-Generation Memory ‘HBF’ - SK hynix Newsroom
- Micron Stock Slumps After Google Unveils New Technology - WSJ
関連記事
富士通とNVIDIA提携の核心 MONAKAとAI基盤は何を変えるか
富士通とNVIDIAの提携は、GPU調達の話ではありません。MONAKA CPU、NVLink Fusion、Kozuchi、Physical AIまでをつなぐ構図を追い、企業向けAI基盤の競争軸がどう変わるのかを解説します。
マスク氏の米国版TSMC構想、AI半導体覇権の現実味を検証する
マスク氏に浮上した「米国版TSMC」構想を、xAIの巨大計算需要、Teslaの独自AIチップ、TSMCやASMLの公開情報から検証します。勝算と巨額投資リスクを整理します。
中国EVが相次ぎ値上げ、原材料高騰が直撃
シャオミやBYDなど中国EV各社が相次いで値上げに踏み切っています。リチウムや車載DRAMの高騰が背景にあり、ホルムズ海峡封鎖によるガソリン高という追い風も生かせない状況を解説します。
グーグルと楽天がYouTubeで動画アフィリエイト開始
YouTubeショッピング アフィリエイト プログラムが日本上陸。楽天市場が国内初のパートナーとなり、クリエイター・視聴者・店舗の三方よしを目指す仕組みと課題を解説します。
高専32校が半導体人材を一斉育成、日本復活の切り札
全国32校の高専が半導体人材育成に本格始動。K-Semiconプロジェクトの全容と、TSMC・ラピダス進出で加速する産学連携の最前線を解説します。
最新ニュース
バーガーキング買収で見えたゴールドマンが賭ける日本外食の次の一手
約785億円の買収はなぜ成立したのか。店舗拡大、既存店成長、アプリ施策、高収益FCモデルから、バーガーキング日本事業が再評価された理由を整理します。
中国精神科病院の医保詐欺と高齢者囲い込みが生む深刻な闇の実態
2026年2月に湖北省で発覚した精神科病院の医保詐欺事件を手がかりに、なぜ高齢者が囲い込まれ、診断や入院が不正に使われたのかを解説します。高齢化、地域ケア不足、法運用の弱さまで読み解きます。
石炭火力の稼働制限解除へ 緊急措置と脱炭素逆行の論点を詳しく解説
政府が検討する石炭火力の稼働制限解除は、イラン情勢によるLNG不安への備えです。対象となる制度、安定供給上の狙い、脱炭素政策との矛盾、今後の見通しを整理します。
コロプラのゲームAI戦略 クリエイターと共創する現場の作法を解く
コロプラは生成AIをゲーム体験の中心に置きつつ、クリエイター主導とライセンス管理を前面に出しました。『神魔狩りのツクヨミ』と社内制度から、ゲーム向けAIモデルの作り方を読み解きます。
保守支持とM-1漫才に共通する日常性と高市政権の語り方を読む
2026年2月8日の衆院選で自民党は316議席を獲得し、高市政権の支持率も上昇しました。政策論だけでは説明しきれない保守支持の背景を、M-1漫才に通じる日常的な語りの強さから読み解きます。