Nvidia는 기뻐할 것입니다. Samsung의 최대 라이벌은 Blackwell Ultra GPU에 사용할 HBM3E 생산을 시작했다고 발표했습니다.
한국의 거대 메모리 기업 SK하이닉스는 세계 최초의 12단 HBM3E 양산을 시작했다고 발표했습니다. 총 메모리 용량은 기존 8단 구성의 24GB보다 대폭 늘어난 36GB입니다.
이 새로운 디자인은 각 DRAM 칩의 두께를 40% 줄여서 동일한 전체 크기를 유지하면서 더 많은 레이어를 적층할 수 있게 함으로써 가능해졌습니다. 회사는 2024년 말부터 대량 출하를 시작할 계획이다.
HBM3E 메모리는 9600MT/s의 대역폭을 지원하며, 이는 8스택 구성에서 사용될 때 1.22TB/s의 유효 속도로 변환됩니다. 이러한 개선으로 인해 속도와 대용량이 필요한 LLM 및 AI 워크로드를 처리하는 데 이상적입니다. 더 빠른 속도로 더 많은 데이터를 처리할 수 있으면 AI 모델이 더 효율적으로 실행될 수 있습니다.
하드웨어 Nvidia 및 AMD
고급 메모리 스태킹을 위해 SK하이닉스는 TSV(Through Silicon Via) 및 MR-MUF(Mass Reflow Molded Underfill) 프로세스를 포함한 혁신적인 패키징 기술을 사용합니다. 이러한 방법은 새로운 HBM3E의 안정적인 고성능 작동에 필요한 구조적 무결성과 열 방출을 유지하는 데 필수적입니다. 집중적인 AI 처리 작업 중에 신뢰성을 유지하려면 열 방출 성능의 개선이 특히 중요합니다.
HBM3E는 향상된 속도와 용량 외에도 향상된 안정성을 제공하도록 설계되었으며 SK 하이닉스의 특허 패키징 프로세스는 적층 시 변형을 최소화합니다. 이 회사의 MR-MUF 기술은 내부 압력 관리를 향상시켜 기계적 고장 가능성을 줄이고 장기적인 내구성을 보장합니다.
이 12레이어 HBM3E 제품의 초기 샘플링은 2024년 3월에 시작되었으며, NVIDIA의 Blackwell Ultra GPU와 AMD의 Instinct MI325X 가속기는 이 향상된 메모리를 최초로 사용하여 최대 288GB의 HBM3E를 활용하여 복잡한 컴퓨팅 AI를 지원할 것으로 예상됩니다. SK하이닉스는 최근 Nvidia에 수요가 많은 AI 하드웨어에 충분한 HMB를 제공할 수 있도록 하기 위해 알려지지 않은 회사로부터 3억 7,400만 달러의 선불 지급을 거부했습니다.
SK하이닉스 저스틴 김 사장(AI 인프라 총괄)은 “SK하이닉스가 다시 한 번 기술 한계를 뛰어넘어 AI 메모리 업계 리더십을 입증했다”고 말했다. “AI 시대의 도전에 부응하기 위해 차세대 메모리 제품을 끊임없이 준비하면서 세계 1위 AI 메모리 공급업체로서의 입지를 이어가겠습니다.”
TechRadar Pro의 작품 더보기
(이것은 신디케이트된 뉴스피드에서 편집되지 않은 자동 생성된 기사입니다. 파이에듀뉴스 직원이 콘텐츠 텍스트를 변경하거나 편집하지 않았을 수 있습니다.)