話題の次世代メモリ半導体「HBM」(前)
-
日韓ビジネスコンサルタント
劉明鎬 氏AI半導体が半導体市場を牽引している
市場調査会社であるオムディアによると、今後DRAM市場はAI半導体需要の爆増で、市場規模が1,000億ドルに成長するという。過去DRAM市場はパソコンの普及とともに年間400億ドルの市場規模に成長できたし、その次にスマホが誕生したことで、DRAM市場は600億ドルの市場に成長を遂げた。そしてこれからはAIが原動力となって、メモリ需要が刺激され、DRAM市場はまたもや爆発的に成長することが予見されている。
AIは以前のパソコンやスマホに比べ、もっと多くのDRAM需要が予想されている。そのなかでも高帯域幅メモリ(HBM)というメモリが市場をリードすることになるという。AIサービスには、学習と推論に膨大なデータ処理が必要であるが、その処理にはGPU以外にもHBMが必要とされ、HBMに急激に注目が集まっている。AI、ビッグデータ、自動走行など、第4次産業革命が本格化することにより、メモリ市場にも変化が起こっているわけだ。なぜかというと、保存するデータ量が爆増するなか、AIにおいては演算のスピードの向上と、低電力消費が要求されるからだ。
現在AI半導体市場における、エヌビディアの地位は絶対的で、同社は一人勝ちの状況である。エヌビディアはグラフィック処理を行うGPUの世界トップ企業だが、AI開発にも同社のGPUが使われ、同社の製品は市場シェアの9割以上を占めている。チャットGPTをはじめとしたAIの学習や推論には、同社のAI半導体が必須で、世界ビックテックの需要だけでも供給を上回っており、同社のAI半導体をめぐる奪い合戦が展開されている。
AI半導体の需要は今後10年間続くとされている。このような旺盛な需要に対応するため、オープンAIの創業者サム・アルトマン氏は、7兆ドルというとてつもない資金を集めて、AI半導体の開発につぎ込もうとしている。世界の資金はAI分野に流れ込み、AIが現在半導体市場を牽引している状況である。
HBMとは~AIに欠かせない
今までのコンピュータシステムは演算処理をするCPU、データを保存するメモリが別々に存在していた。しかし、一回に処理できるデータ量には限界があって、データ処理を待つことがボトルネックになっているという問題があった。AIにおいては処理するデータ量はもっと膨大になり、今の方式ではどうにもならない。そこでCPUの代わりにGPUでデータを並行して処理することで処理時間を圧倒的に短縮できるようにした。だが、このようにしてデータがうまく処理できたとしても、処理したデータを瞬間的にバックアップするための多くのメモリが同時に必要とされる。しかしこの点でGPUとメモリの間に物理的な距離があり、どうしても限界があった。そこで、GPUの秘書のようにすぐ隣にくっついて使用されるグラフィック用のDRAMであるGDDRが登場した。ゲームをやるときにはそれで十分であったが、AI処理においては、それも不十分であることがわかり、それを解決するためについに登場したのが「HBM」である。次世代DRAMである「HBM」はこのような背景で登場した。
HBMはDRAMを垂直に積層している。このメモリはデータ処理速度を飛躍的に向上させただけでなく、容量も大幅に増加させている。データは効果的に伝送でき、消費電力は既存のDRAMより少ないのが特徴である。AI用のGPUにはHBMが大量に使われている。「HBM」はAIのデータ処理になくてはならない必須品となった。
(つづく)
関連キーワード
関連記事
2024年12月20日 09:452024年12月19日 13:002024年12月16日 13:002024年12月4日 12:302024年11月27日 11:302024年11月26日 15:302024年12月13日 18:30
最近の人気記事
まちかど風景
- 優良企業を集めた求人サイト
-
Premium Search 求人を探す