SKハイニックス、NVIDIAのAIサーバ向け192GB「SOCAMM2」の量産を開始

Reddit r/LocalLLaMA / 2026/4/20

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • SKハイニックスは、次世代AIサーバ向けの192GB SOCAMM2メモリモジュールの量産を開始しました。
  • 同モジュールは従来のサーバRAMではなく、LPDDR5Xベースの設計を採用し、RDIMM比で電力消費を75%以上削減しつつ、帯域幅を2倍以上に高めるとしています。
  • SOCAMM2は、非常に大規模なAI学習ワークロードを支えることを目的に、NVIDIAの次期「Vera Rubin」プラットフォーム専用に設計されています。
  • GPU以外で、メモリの帯域や消費電力がAIシステムのボトルネックとして重要になってきている点が強調されています。
  • この動きは、大規模AIインフラ向けに特化した高スループットのメモリソリューションへ業界が向かっていることを示唆します。

SK hynixは、次世代AIサーバーを対象とした192GBのSOCAMM2メモリモジュールの量産をようやく開始しました。これは、現代のAIシステムにおける最大級のボトルネックのひとつを基本的に解消しようとしているものです。従来のサーバー用RAMの代わりに、スマホなどで見かけるLPDDR5Xを使用しており、RDIMMと比べて消費電力を75%以上削減しながら、帯域幅を2倍以上まで引き上げることができます。さらに、NVIDIAの次期「Vera Rubin」プラットフォーム向けに特別に作り込まれているため、これは巨大なAIトレーニング負荷に“餌を与える”ためのものだということが分かります。GPUは注目を集めがちですが、メモリがすぐに本当の制限要因になりつつあり、これは業界の向かう方向がかなり明確に変わってきたと感じさせます。

によって投稿されました /u/OkReport5065
[リンク] [コメント]