AI半導体の基本構造と2種類のメモリ
AIサーバーに組み込まれるAI半導体は、主にGPUとメモリで構成されています。
- 短期記憶型(HBM/DRAM)
- 長期記憶型(NAND/SSD)
GPUは計算処理は得意ですが、記憶は苦手なため、計算に必要な一時的なデータを保管する場所が必要です。それがHBM(High Bandwidth Memory)などのDRAM型メモリです。HBMは、脳の短期記憶のように、大量のデータを同時にものすごい速さでGPUとやり取りできるのが特徴です。
生成AIの勃興期には、まずこのHBMの需要が爆発的に高まりました。HBM/DRAMの製造は、主にSamsung、SKハイニクス、Micronといった企業が担っています。
AIモデルが成長し、パラメーターの数が増加するにつれて、一時的なデータとはいえ、より多くのデータを大量に保管する場所が必要になりました。
HBMのような短期記憶型メモリは、データ保管容量が大きくなく、電力消費も多いため、代わりに注目されているのがNAND型SSDです。
SSDは脳の長期記憶のように、電源を切ってもデータが残り、大量に保存できる点が特徴です。
AI半導体は、HBMで「考える速さ」を、NAND型SSDで「覚える量」を補完し合っている構造だと言えます。
<キオクシアが握る「長期記憶型」の優位性>
キオクシアは、このAI半導体に必要な長期記憶型(NAND型)のメモリを専門で製造しています。
現在、SamsungやSKハイニクス、Micronといった主要な競合他社は、自社の製造ラインの大半を、付加価値の高い短期記憶型(HBM)メモリの製造にまわしていて、長期記憶型メモリまで手が回らない状況が生じています。
こうした状況下で、AIモデルの発展によりSSDのような長期記憶型メモリの重要性が高まったことで、キオクシアのようなNAND専門企業に注目が集まっています。
<NVIDIAからの協力要請と技術的優位性>
キオクシアの技術的優位性が評価され始めている具体的な動きも見られます。
- NVIDIAからの要望
- 最先端技術の保有
9月上旬には、AI半導体の性能向上を目指すNVIDIAから、キオクシアのSSD技術の協力を求める要望があったと報じられています。NVIDIAは、HBMだけでは容量拡張が追い付かないため、HBMの一部をキオクシアが提供する高速の長期記憶型SSDに置き換えたい意向があるとしています。
キオクシアは、長期記憶型メモリに関して、省エネ化、大容量化、設計自由度の拡大といった技術を磨いてきました。特に、回路とメモリを別々に作り、後で貼り合わせるCBA技術を量産レベルで実現できる筆頭候補であり、これが最新のAIサーバーで使われるAI半導体の重要な技術として注目を集めています。
<市場の供給逼迫と価格上昇の兆し>
Open AI社が大手メモリ企業と数ヶ月先の供給契約を締結する流れがあるように、AIバブルの影響でメモリ関係全体の供給が逼迫しています。
高密度なNAND製品、すなわちAI半導体で使われるようなキオクシア提供の高性能な長期記憶型製品は、数ヶ月先まで予約済みであると報じられています。この供給逼迫を受けて、NANDメモリの価格は5%から10%程度上昇する可能性が報道されています。
さらに、AI向けだけでなく、超高性能なスマートフォン(iPhone 17など)の販売が好調であるという報道も出ており、民生機器向けでもメモリ需要が高まる期待がされています。
<関税問題による連想恩恵>
米国では、韓国企業が強いメモリ市場において、もしトランプ氏が大統領に返り咲いた場合に韓国からの輸入に関税をかける可能性が取り沙汰されています。これにより、米国のメモリメーカーであるSanDiskが業績的な恩恵を受けるだろうというトピックが9月上旬に浮上しました。
キオクシアはSanDiskと提携関係にあるため、SanDiskが恩恵を受けることは、キオクシアにも良い影響が及ぶだろうという連想ゲーム的な評価の上昇も、株価を後押しする要因となっています。
Next: キオクシアは買いか?長期投資家が注視すべきリスク