Компания SK hynix представила на SK AI Summit 2024 передовую память HBM3E с 16-слойной архитектурой (16-Hi) и объёмом до 48 ГБ на стек, что является, по заявлению компании, наивысшей ёмкостью и количеством слоёв в отрасли. Генеральный директор SK hynix, Квак Но-Чжун, подчеркнул, что эта разработка укрепит позиции компании на рынке AI-памяти.
SK hynix планирует начать поставки образцов новой памяти уже в начале 2025 года. Хотя рынок 16-слойной HBM, как ожидается, начнёт активно развиваться с поколения HBM4, компания решила сфокусироваться на HBM3E, чтобы обеспечить технологическую стабильность. Для производства 16-Hi HBM3E используется передовой техпроцесс Advanced MR-MUF, ранее применявшийся для 12-слойных решений, а также разрабатывается технология гибридного соединения.
Помимо памяти HBM3E, компания работает над созданием SSD-накопителей с интерфейсом PCIe 6.0, высокоёмких eSSD на базе QLC и UFS 5.0. В планах также разработка модуля LPCAMM2 для ПК и дата-центров, а также LPDDR5 и LPDDR6, использующих преимущества компании в области энергоэффективных и высокопроизводительных решений.
В своей речи «Новое путешествие в памяти следующего поколения для ИИ: от аппаратного обеспечения к повседневной жизни» Квак Но-Чжун отметил, что 16-слойная архитектура обеспечивает прирост производительности на 18% в задачах обучения и на 32% в задачах инференса по сравнению с 12-слойной. Ожидаемый рост рынка ускорителей ИИ для инференса делает 16-Hi HBM3E ключевым продуктом для укрепления лидерства SK hynix.
SK hynix также исследует технологии, добавляющие вычислительные функции в память (Processing Near Memory, Processing in Memory и Computational Storage), чтобы преодолеть «барьер памяти». Компания видит в этом ключ к обработке огромных массивов данных в будущем и преобразованию архитектуры систем ИИ следующего поколения. С поколения HBM4 SK hynix намерена сотрудничать с ведущей мировой компанией по производству логических микросхем, чтобы применять логический техпроцесс на базовом кристалле и предлагать клиентам лучшие продукты. Также разрабатывается кастомизированная HBM с оптимизированной производительностью, учитывающая различные требования клиентов к ёмкости, пропускной способности и функциональности. Это, по мнению компании, откроет новую парадигму в сфере AI-памяти.
Источник новости: overclockers.ru