2024年11月26日( 火 )

メモリ市場のゲームチェンジャー HBM/広帯域幅メモリ(前)

記事を保存する

保存した記事はマイページからいつでも閲覧いただけます。

印刷
お問い合わせ

日韓ビジネスコンサルタント
劉明鎬 氏

AI半導体が市場を牽引する

AI イメージ    生成AIが登場し、AIの普及やその効果に対して期待が高まっている。AIサービスを提供するためには、大量のデータが瞬時に処理される能力が求められる。このようなデータ処理に不可欠なものが半導体で、いくら良いAIを設計しても、半導体なしではAIのサービスは使い物にならない。AIサービスを実現するうえで最も大事な半導体といえば、データ処理において演算を担当するGPUであろう。

 GPUとは、もともと画像を描写するのに必要な計算処理をするために誕生した半導体であるが、大量演算に向いていることが判明し、AI時代の到来とともに最も注目が集まっている半導体でもある。GPUの世界トップ企業はNVIDIA(エヌビディア)社で、同社の株価は10年前は3ドルに過ぎなかったが、現在1,300ドルを上回り、額面分割されているほどだ。同社のGPUの稼働に必須のメモリ半導体が、HBM(広帯域幅メモリ)である。HBMのなかでも、エヌビディアの注文の6割以上を占めているのが「HBM3E」である。来年には同社注文の80~90%を「HBM3E」が占めるだろうと予想されている。

HBM(広帯域幅メモリ)とは

 メモリはGPUの隣でGPUとデータ信号をやり取りする。信号が行き来するなかで、1秒間に行き来するデータの数を業界では「帯域幅」という。「帯域幅」はその数字が高ければ高いほど、データ処理が早くなることを意味する。メモリは GPU に演算しないといけないデータを渡し、演算が終わったら、その結果を受け取り、保存する。GPUは計算担当で、メモリは資料を受け渡す役割を担っているわけだ。ところが、演算速度がいくら速くても、メモリのスピードがそれに追いつかないと、ボトルネックとなり、データ処理が遅延する。このボトルネックを解消するため、高速データ処理のために開発されたメモリがHBM(広帯域幅メモリ)である。

 HBMは、2013年にSKハイニックスが世界で初めて開発した。既存のメモリであるDRAMを幾段にも垂直に積層し、それぞれのチップ間に穴を開けて(TSV)、データのやり取りをしやすくしたのだ。この方式は従来のワイヤーボンド接続と比較して高密度な配線が可能になるとともに、配線距離が短くなることにより、信号の伝播遅延が減少し、高いデータ処理が実現されている。HBMはこのように大容量のデータを高速処理し、GPUの性能アップに貢献している。

 HBMの需要が高まっている理由は、莫大なデータ処理が要求されるAIのデータ処理において、必要なスピードを提供することと、電力消耗も少なくし、AIサーバーには最適である点だ。しかし、HBMは垂直に積層しなければならず、技術的に難易度が高く、製造プロセスも複雑で、コストが高いうえに、歩留まりを確保するのが難しかった。

 サムスン電子はHBMは高コストで、歩留まりの悪い製品なだけに、需要は少ないだろうと判断し、開発を躊躇した反面、2位のSKハイニックスは、むしろHBMを反撃のチャンスと捉え、HBMの開発に果敢に投資したことが現在の結果を生んでいる。SKハイニックスはHBM市場において、完全に主導権を握るようになり、歩留まりも80%を実現し、SKハイニックスはメモリ業界1位の座に上り、サムスン電子は長年の王者の座から転げ落ちる可能性があることが噂されている。

 市場調査機関であるガートナは、HBM市場は今後も継続的に成長すると予測している。HBMの市場規模も、2022年には11億ドルに過ぎなかったが、2027年には51億ドルに膨らむことが予想されている。ブルームバーグインテリジェンスは、HBMの営業利益率は約53%で、SKハイニックスの成長を牽引する原動力となるだろうとしている。

(つづく)

(後)

関連キーワード

関連記事