Micronは、次世代の人工知能(AI)GPUに適した12層HBM3Eチップの生産バージョンを発売しました。メモリスタック容量は最大36GB、速度は9.2GB/sを超えています。Micronは現在、検証手順のためにAI業界チェーンの重要なパートナーに、生産ポータブル12層5層HBM(HBM3E)を提供していると述べました。
Micronは、9月9日に12層スタックでHBM3Eメモリの発売を正式に発表しました。新製品の容量は36GBで、NVIDIAのH200やB100/B200 GPUなど、AIおよびHPC(高性能コンピューティング)ワークロード用の最先端のプロセッサ向けに設計されています。
Micronの12層HBM3Eメモリスタックの容量は36GBで、これは以前の8層バージョン(24GB)よりも50%高くなっています。容量の増加により、データセンターは単一のプロセッサでより大きなAIモデルを実行できます。この機能により、頻繁なCPUオフロードの必要性がなくなり、GPU間の通信の遅延が減少し、データ処理が高速化されます。
パフォーマンスの観点から、Micronの12層HBM3Eスタックは、1.2TB/sを超えるメモリ帯域幅と9.2GB/sを超えるデータ転送速度を提供できます。Micronによると、同社のHBM3Eは、競合他社よりも50%多くのメモリ容量を提供するだけでなく、8層HBM3Eスタックよりも少ない電力を消費します。
Micronの12レイヤーHBM3Eには、顧客の市場投入と信頼性を高速化するために、完全にプログラム可能なメモリ内蔵セルフテスト(MBIST)システムが含まれています。このテクノロジーは、システムレベルのトラフィックをフルスピードでシミュレートでき、包括的なテストと新しいシステムのより速い検証を可能にします。
MicronのHBM3Eメモリデバイスは、NVIDIAのH100やH200などのAIプロセッサパッケージで広く使用されているTSMCのCowosパッケージテクノロジーと互換性があります。
Micronは、HBM4やHBM4Eを含む次世代メモリソリューションの開発を開始したことが報告されています。これらの今後のメモリタイプは、ブラックウェルとルービンアーキテクチャに基づいたNVIDIA GPUを含むAIプロセッサの高度なメモリに対する需要の高まりを引き続き満たします。