میکرون نسخه تولیدی از تراشه 12 لایه HBM3E را برای نسل بعدی GPU های هوش مصنوعی (AI) مناسب با ظرفیت پشته حافظه تا 36 گیگابایت و سرعت بیش از 9.2 گیگابایت در ثانیه راه اندازی کرده است.میکرون اظهار داشت که در حال حاضر تولید 12 لایه قابل حمل HBM (HBM3E) قابل حمل تولید را به شرکای مهم در زنجیره صنعت AI برای مراحل تأیید تحویل می دهد.
میکرون رسماً از راه اندازی حافظه HBM3E با یک پشته 12 لایه در تاریخ 9 سپتامبر خبر داد.این محصول جدید دارای ظرفیت 36 گیگابایتی است و برای پردازنده های برش برای بارهای کاری AI و HPC (محاسبات با کارایی بالا) مانند GPU های H200 NVIDIA و B100/B200 طراحی شده است.
پشته حافظه 12 لایه HBM3E میکرون دارای ظرفیت 36 گیگابایتی است که 50 ٪ بیشتر از نسخه 8 لایه قبلی (24 گیگابایت) است.افزایش ظرفیت مراکز داده را قادر می سازد تا مدل های بزرگتر AI را بر روی یک پردازنده واحد اجرا کنند.این ویژگی نیاز به بارگیری مکرر پردازنده را از بین می برد ، تأخیر ارتباط بین GPU ها را کاهش می دهد و پردازش داده ها را سرعت می بخشد.
از نظر عملکرد ، پشته 12 لایه HBM3E میکرون می تواند پهنای باند حافظه را بیش از 1.2tb/s و نرخ انتقال داده ها بیش از 9.2 گیگابایت در ثانیه فراهم کند.به گفته میکرون ، HBM3E این شرکت نه تنها 50 ٪ ظرفیت حافظه بیشتری را نسبت به رقبای خود فراهم می کند ، بلکه از قدرت کمتری نسبت به پشته HBM3E 8 لایه نیز استفاده می کند.
Micron's 12 Layer HBM3E شامل یک سیستم حافظه کاملاً قابل برنامه ریزی داخلی در خود تست (MBIST) برای اطمینان از زمان سریعتر محصول برای بازار و قابلیت اطمینان برای مشتریان است.این فناوری می تواند ترافیک سطح سیستم را با سرعت کامل شبیه سازی کند و امکان آزمایش جامع و اعتبارسنجی سریعتر سیستم های جدید را فراهم کند.
دستگاه های حافظه HBM3E Micron با فناوری بسته بندی Cowos TSMC سازگار هستند ، که به طور گسترده در بسته های پردازنده AI مانند H100 NVIDIA و H200 استفاده می شود.
گزارش شده است که میکرون شروع به توسعه راه حل های حافظه نسل بعدی خود ، از جمله HBM4 و HBM4E کرده است.این انواع حافظه آینده همچنان تقاضای فزاینده ای برای حافظه پیشرفته در پردازنده های هوش مصنوعی ، از جمله GPU های NVIDIA بر اساس معماری بلکول و روبین ادامه خواهد داد.