ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 2025.6.1 2024년 12단 HBM 최신 기술 및 산업 현황
    반도체 2025. 6. 1. 10:00
    728x90
    SMALL

    1. 주요 업체별 12단 HBM 개발 및 양산 현황

    SK하이닉스: SK하이닉스는 HBM 분야의 선두주자로, 2022년 세계 최초로 HBM3 양산을 시작했고, 2023년 4월에는 업계 최초로 12단 적층의 24GB HBM3 개발에 성공하여 샘플을 고객사에 제공했습니다news.skhynix.comnews.skhynix.com. 이 12-Hi HBM3는 기존 8단 제품(16GB)의 적층 높이를 유지하면서 용량을 50% 늘린 혁신으로, 6만 개 이상의 TSV 접속을 구현해야 하는 난제를 극복했습니다tomshardware.comsemiconductor.samsung.com. SK하이닉스는 2023년 하반기부터 해당 24GB HBM3를 본격 양산해 NVIDIA 등에 공급하였고, 2024년 9월에는 세계 최초로 12단 적층의 36GB HBM3E 양산에 돌입했습니다trendforce.com. 이 최신 HBM3E는 단품 기준으로 데이터 전송 속도가 최대 9.6Gbps까지 향상되어 스택당 대역폭 ~1.2TB/s에 달하며, 현존 최고 속도를 자랑합니다tweaktown.com. SK하이닉스는 HBM3E 양산과 함께 2024년 말부터 더 높은 적층을 위한 16단 HBM3E도 개발하여 2025년 상반기 양산을 준비하는 등 기술 격차 벌리기에 나섰습니다trendforce.com. 나아가 차세대 HBM4도 업계 최선두에서 추진 중으로, 2025년 초 세계 최초로 12단 HBM4 샘플을 고객사에 제공하며 예상 일정보다 앞서가는 모습을 보였습니다news.skhynix.com.]

     

    삼성전자의 12단 HBM3 (24GB) 시제품. 삼성은 2019년 이미 12단 TSV 적층 패키징 기술을 확보해 적층 높이를 8단과 동등 수준(약 720㎛)으로 제어한 바 있다semiconductor.samsung.com. 하지만 이후 HBM3 세대에서 주도권을 SK하이닉스에 내주며, 초반 HBM3 공급에서는 어려움을 겪었습니다. 실제로 삼성전자는 AI 붐 초기인 2023년에 HBM3 제품의 수율 문제와 고객 인증 지연으로 NVIDIA H100 등 핵심 수요처에 충분한 공급을 하지 못했고, SK하이닉스가 1b나노 공정을 앞세워 시장을 선점하는 동안 삼성은 1a 공정에 머물러 기술 경쟁력에서 밀렸다는 평가를 받았습니다businesspost.co.kr. 그러나 2023년 말 삼성은 자체 HBM3 (코드명 ‘아이스볼트(Icebolt)’) 제품으로 NVIDIA 공급망에 소량 진입하는 데 성공했고businesswire.com, 이어 AMD의 MI300 시리즈에 대한 품질 인증도 2024년 1분기 내 획득하며 공급 자격을 확보했습니다businesswire.com. 이를 발판으로 삼성은 차세대 HBM3E (코드명 ‘샤인볼트(Shinebolt)’) 12단 제품 개발을 가속화하여 2024년 초부터 엔비디아향 물량을 선행 생산하기 시작했습니다zdnet.co.kr. 엔비디아의 공식 인증 전에 웨이퍼 투입을 결정한 것으로, 이는 “선(先)공급 후(後)승인” 전략으로 시장 진입 시점을 앞당기려는 승부수입니다g-enews.com. 삼성은 자사 HBM3E 12단 제품이 엔비디아의 요구 기준을 충족할 것이라는 자신감으로 2025년 2월 첫 양산 웨이퍼를 투입했고g-enews.comg-enews.com, 2025년 중반 고객사 승인 즉시 대량 공급이 가능하도록 대비하고 있습니다. 삼성 **HBM3E(Shinebolt)**의 성능은 36GB 용량에 스택당 약 1.25TB/s 대역폭으로 SK하이닉스 제품과 동급이며nextplatform.com, 발열 안정성 개선 등을 통해 엔비디아의 테스트를 통과할 것으로 기대됩니다g-enews.com. 또한 삼성은 HBM에서의 지위 회복을 위해 HBM4 개발 일정을 당초 계획보다 앞당겼습니다. 2024년 3월 삼성은 차세대 HBM4를 2025년 하반기 양산하겠다고 발표하여, 기존 2026년 목표 대비 6개월 이상 앞선 일정으로 업계를 놀라게 했습니다tomshardware.com. 삼성 HBM4에서는 적층 기술 혁신을 예고했는데, 열 문제 해소와 I/O 확장을 위해 업계 최초로 하이브리드 본딩 공정을 도입할 계획입니다tomshardware.com. 이를 통해 16단 이상의 고적층에서도 열적 안정성과 신호 무결성을 확보, 성능 우위를 노리고 있으며 2025~26년 본격 양산을 목표로 하고 있습니다tomshardware.com.

    마이크론: 마이크론은 한동안 HBM 시장에서 존재감이 적었으나(과거 HBM2 일부 개발 이후 중단), 2023년 폭발한 AI 수요에 대응하기 위해 HBM 사업에 적극 재참여했습니다. 2024년 마이크론은 HBM3E 제품을 준비하여, 1β나노 공정 기반의 8단 24GB 및 12단 36GB HBM3E 개발을 완료했습니다micron.com. 마이크론 HBM3E는 핀당 9.2Gbps를 넘는 속도를 달성하고 스택당 1.2TB/s 이상의 대역폭을 제공하며, 경쟁사 대비 전력소모를 30% 낮춘 것이 강점입니다micron.com. 2024년 하반기부터 마이크론은 8-Hi 24GB HBM3E를 엔비디아 H200 GPU에 공급하기 시작했는데, 이는 엔비디아가 SK하이닉스에 이어 마이크론을 HBM3E 공급사로 채택한 결과입니다micron.com. 업계 보도에 따르면 마이크론은 SK하이닉스에 이어 엔비디아에 12단 HBM3E를 공급하는 두 번째 업체로 이름을 올렸으며, 삼성전자는 아직 인증 단계에 머물렀다는 평가가 나오기도 했습니다trendforce.comtrendforce.com. 마이크론은 2024년 말까지 양산 준비를 마치고 2025년 초부터 36GB 12-Hi HBM3E의 본격적인 물량 공급을 추진 중입니다. 이와 함께 미국 및 아시아 거점에 HBM 생산능력을 공격적으로 확충하여, 2024년 말 SK하이닉스/삼성의 20% 수준이었던 생산량을 2025년 말에는 60% 이상으로 끌어올릴 계획입니다trendforce.com. 향후 로드맵 상 마이크론은 2025년말까지 16단 HBM3E 개발을 완료해 SK하이닉스와 격차를 줄이고자 하며trendforce.com, 차세대 HBM4는 2026년 양산, HBM4E는 2027~2028년 도입을 공식화한 상태입니다techradar.com. 비교적 후발주자이지만 최신 공정 기술과 공격적인 투자로 HBM 시장 점유율 확대를 노리고 있습니다.

    2. 제품 사양 비교: 적층 방식, 용량, 대역폭, 전력 등

    HBM의 TSV 적층 구조 개념도. 12단 적층 HBM은 기본적으로 TSV(Through-Silicon Via) 기반 3D 적층 기술을 활용하여 다수의 DRAM 다이를 수직 연결한 고대역폭 메모리입니다. 각 스택은 논리 기반 칩 위에 DRAM 칩을 12개까지 쌓은 구조로, 미세 구리 기둥 전극(위 그림의 작은 돌기들)을 통해 칩 간 신호를 주고받습니다. 이러한 TSV 적층으로 초대용량·초고속 메모리를 구현하지만, 난이도가 매우 높아 모든 업체들이 초정밀 패키징 기술을 동원하고 있습니다. 예를 들어 SK하이닉스는 12단 적층에서 MR-MUF(Mass Reflow Molded Underfill) 공정을 적용해 적층 안정성과 공정 효율을 높였고, 단일 DRAM 칩 두께를 40% 줄여 12단임에도 8단 제품과 동일한 높이를 달성했습니다news.skhynix.com. 삼성전자와 마이크론은 HBM3 세대까지는 TC-NCF(Thermal Compression with Non-Conductive Filler) 방식의 패키징을 활용해왔으나tomshardware.com, 향후 삼성은 HBM4부터 하이브리드 본딩을 도입하여 칩 간 직접 접합으로 열 발산과 신호 품질을 개선할 계획입니다tomshardware.com (SK하이닉스도 차차 도입 검토 중). 아래 표에 각사의 최신 12단 HBM3E 사양을 비교했습니다:

    구분SK하이닉스 HBM3E (12-Hi)삼성전자 HBM3E (12-Hi)마이크론 HBM3E (12-Hi)
    적층 기술 12단 TSV + MR-MUF 패키징<br/>(8단 높이 유지)news.skhynix.com 12단 TSV + TC-NCF 패키징<br/>(HBM4부터 하이브리드 본딩 예정)tomshardware.com 12단 TSV + TC-NCF 패키징tomshardware.com
    단일 칩 밀도 16Gb (HBM3)<br/>~24Gb (HBM3E) ※공정 1b ~16Gb (HBM3)<br/>~24Gb (HBM3E) ※공정 1a/1z 24Gb (HBM3E)<br/>※1-beta (β) 공정
    스택 용량 24GB (12×16Gb)news.skhynix.comnews.skhynix.com<br/>36GB (12×24Gb)trendforce.com 24~36GB 수준<br/>(예상 스펙 동등)nextplatform.com 36GB (12×24Gb)<br/>또는 24GB (8-Hi)micron.com
    대역폭 (스택당) HBM3: 819GB/s (6400MT/s1024bit)tomshardware.com<br/>HBM3E: ~1.2TB/s (9600MT/s1024bit)tweaktown.com 1.21.25TB/s 수준<br/>(핀당 ~9.2–9.6Gbps 추정)nextplatform.com >1.2TB/s (@ >9.2Gbps 핀속도)micron.com
    전력 효율 HBM3E 동작전압 1.1V (HBM2E 대비 ↓)marklapedus.substack.com<br/>– 공정 미세화로 개선 1.1V 동작 (HBM3E)<br/>– 발열 개선 (자체 발표) 1.1V 동작<br/>– 경쟁대비 30% 소비전력 ↓micron.com
     

    주: 모든 HBM 제품은 통상 1024-bit의 초광폭 인터페이스(채널 구성)로 구성되어, 핀당 전송속도를 통해 대역폭을 계산합니다. 표의 수치는 각 사의 공개자료 및 보도 내용을 바탕으로 정리한 대표값입니다. SK하이닉스와 삼성의 HBM3E는 모두 핀당 약 9.6Gbps까지 동작하여 1.2TB/s 내외의 동일한 최고 성능을 구현한 것으로 알려졌습니다nextplatform.com. 마이크론 역시 9.2Gbps 이상의 핀속도를 달성했고, 향후 개선 여지를 남겨두고 있습니다micron.com. 세 업체 모두 HBM3E에서 약 1.1V의 동작전압을 사용하며(HBM2E는 1.2V 수준), 공정 미세화와 회로 최적화로 에너지 효율을 높이고 있습니다marklapedus.substack.com. 특히 마이크론은 자사 HBM3E가 “경쟁사의 제품보다 소비전력을 30%까지 절감한다”고 주장하며 저전력 장점을 강조했습니다micron.com.

    한편 HBM 스택의 구조를 살펴보면, HBM은 논리(base) 다이 위에 다수의 DRAM 다이를 적층하고 옆으로 실리콘 인터포저를 통해 GPU/AI칩과 연결됩니다. 각 스택은 JEDEC 표준에 따라 여러 개의 독립 채널로 구성되며(예: HBM3는 16채널, HBM4는 32채널) 각 채널은 128비트 폭으로 동작해 병렬로 방대한 데이터 전송을 수행합니다trendforce.com. 예를 들어 HBM3 기준 하나의 스택이 819GB/s의 대역폭을 낼 경우(1024bit, 6.4Gbps)tomshardware.com, 엔비디아 H100 GPU처럼 56개 HBM 스택으로 8096GB 메모리를 구성하면 총 메모리 대역폭이 34TB/s 수준에 이릅니다tomshardware.com. 최신 HBM3E는 단품으로 1TB/s를 넘어서므로, 차세대 GPU에서는 48TB/s 이상의 메모리 대역폭이 현실화되고 있습니다. 이러한 고대역폭 메모리는 AI 가속기에 필수적이지만 동시에 발열과 전력 이슈를 동반하기 때문에, 각 사는 열 관리신호 무결성 향상을 위한 패키징 혁신에 주력하고 있습니다. 앞서 언급한 삼성의 하이브리드 본딩 도입이나 SK하이닉스의 MR-MUF 고도화 등이 그 예로, 16단 이상 적층 시 높이와 열을 잡기 위한 기술들입니다tomshardware.comtomshardware.com. JEDEC에서는 HBM4 세대의 패키지 두께 제한을 16단 기준 775㎛로 완화하여 (HBM3E 16단 ~800㎛ → HBM4 16단 775㎛) 현행 패키징으로도 16단 적층이 가능하도록 표준을 마련했습니다trendforce.com. 이는 당장 모든 업체가 고비용의 하이브리드 본딩을 쓰지 않고도 HBM4를 구현할 수 있게 한 조치로 해석되며, 따라서 SK하이닉스 등은 우선 기존 TSV 패키징으로 16단 HBM4를 구현하고 추후 필요 시 하이브리드 본딩을 적용한다는 입장입니다tomshardware.comtomshardware.com.

    3. 주요 고객사 채택 현황 (엔비디아, AMD, 인텔 등)

    AI 시대를 맞아 HBM 수요가 폭발적으로 증가하면서, 엔비디아(Nvidia), AMD, 인텔 등 주요 칩 기업들은 앞다투어 HBM을 자사 제품에 채용하고 있습니다. HBM 공급 3사는 이들 고객사의 엄격한 퀄리피케이션(품질 인증) 과정을 거쳐 공급권을 확보하며 협력을 확대 중입니다:

    • 엔비디아(Nvidia): 엔비디아는 데이터센터 GPU에 HBM을 가장 적극 활용해온 기업으로, 2022년2023년 출시된 A100/H100(Hopper) GPU에서 HBM2E/HBM3를 탑재했습니다. 초기 H100(80GB 모델)은 주로 SK하이닉스의 HBM3를 통해 메모리를 구성했으며businesswire.com, 삼성전자는 2023년 말 1z㎚ 공정 HBM3 일부 물량으로 엔비디아 공급망에 처음 진입했습니다businesswire.com. 이후 차세대 H100 업그레이드 버전(H100 NVL 등)과 2024년 공개된 H200 GPU부터는 HBM3E로 메모리 인터페이스가 전환되고 있습니다businesswire.combusinesswire.com. 이 과정에서 엔비디아는 공급 부족을 해소하고자 다수 업체를 공급자로 두는 전략을 택했습니다. **H100 후속(H200)**에는 SK하이닉스뿐 아니라 마이크론의 HBM3E 8-Hi 24GB 제품이 채택되어 이미 공급이 시작되었고micron.com, SK하이닉스의 12-Hi 36GB HBM3E도 엔비디아에 제공되어 차세대 GPU 모듈에 활용될 전망입니다trendforce.com. 삼성전자 역시 자사 HBM3E가 2024년 하반기2025년 초 엔비디아 인증을 통과하면 공급에 참여할 예정입니다g-enews.com. 엔비디아는 HBM 수급 다변화를 위해 2024년부터 삼성·마이크론을 신규 공급처로 적극 확보하고 있으며, 실제 업계에서는 “엔비디아 차세대 HBM3E 공급은 SK하이닉스 1차, 마이크론 2차, 삼성 3차 합류” 구도로 보고 있습니다trendforce.comtrendforce.com. 한편 엔비디아의 GPU 모듈 패키징(CoWoS) 용량이 제한되면서 HBM 자체가 공급 병목으로 지목되기도 했는데businesswire.combusinesswire.com, 삼성의 선제 양산 등으로 2024년 이후에는 공급난이 상당부분 완화될 것이란 전망이 나옵니다.
    • AMD: AMD는 고성능 GPU 및 데이터센터 APU에 HBM을 적극 도입해온 회사입니다. 2018년~2020년의 Radeon VII, Instinct MI100/MI200 등에도 HBM2를 사용했고, 2023년 발표한 Instinct MI300 시리즈에는 HBM3 메모리를 채택했습니다. AMD의 MI300A (APU형) 및 MI300X (GPU형) 가속기에는 최대 8개의 HBM 스택이 장착되며, MI300X의 경우 총 192GB HBM3 용량과 5.2TB/s 수준의 대역폭을 갖춘 것으로 알려졌습니다nextplatform.com. 이들 초대용량 HBM은 SK하이닉스가 주 공급처로서 지원하여 AMD의 제품 일정에 맞췄고, 삼성전자도 2024년 초 MI300용 HBM3 공급 자격을 확보하면서 AMD의 멀티소싱 전략에 참여했습니다businesswire.com. 업계 보고에 따르면, 삼성전자는 MI300 시리즈의 HBM 공급을 통해 2024년부터 AMD 매출 비중을 높여갈 것으로 전망됩니다businesswire.com. 더 나아가 AMD는 차세대 업그레이드 제품인 MI350(가칭)에도 향상된 HBM을 적용할 계획인데, 삼성전자가 해당 12단 HBM3E 물량 수주에 성공하여 약 3조 원 규모의 공급 계약을 맺었다는 보도도 있습니다reddit.com. AMD 입장에서는 SK하이닉스, 삼성 두 업체의 HBM3E를 모두 인증하여 공급망을 안정화하고 경쟁사 엔비디아 대비 메모리 용량/대역폭 우위를 노리고 있습니다. 실제 MI300X의 경우 엔비디아 H100 대비 메모리 용량 36% 많고 대역폭 10% 이상 높았으며nextplatform.com, 향후 HBM3E로 전환 시 288GB HBM 용량과 6.5TB/s에 달하는 폭발적인 메모리 성능을 구현할 것으로 기대됩니다nextplatform.com. 이러한 고사양 HBM 수요를 충족하기 위해 AMD는 메모리 다변화 전략을 취하고 있으며, 마이크론 역시 AMD향 HBM 공급을 타진할 것으로 보입니다.
    • 인텔: 인텔은 CPU와 AI 가속기 분야에서 HBM을 도입하고 있는 주요 고객사입니다. 인텔의 HPC 데이터센터 CPU인 Xeon CPU Max (사파이어 래피즈 HBM) 제품은 4개의 HBM2E 스택(총 64GB)을 CPU 패키지에 적층하여 대역폭을 크게 향상시켰습니다. 이 HBM2E는 SK하이닉스와 마이크론 등이 공급한 것으로 알려져 있으며, 인텔은 향후 CPU 제품군에서 HBM 채용을 확대할 계획입니다. 또한 인텔이 20222023년에 공개한 GPU/AI 프로세서인 Ponte Vecchio(코드네임)와 Habana Gaudi2에도 HBM 메모리가 탑재되었는데, 주로 HBM2E를 통해 대용량 메모리 대역폭을 구현했습니다. 차세대 인텔 데이터센터 GPU인 Falcon Shores 등에도 HBM3 이상의 채용이 거론되고 있어, 인텔 역시 세 HBM 공급사의 잠재적 고객으로 꼽힙니다. 특히 인텔은 제품 특성상 멀티소싱을 중시하므로 SK하이닉스, 삼성, 마이크론과 각각 협업하여 HBM에 대한 호환성 검증을 진행해왔습니다. 현 시점까지 인텔의 12단 HBM3(E) 도입 사례는 공개되지 않았지만, 업계에서는 2025년 이후 인텔도 차세대 HPC 제품에 HBM3E/HBM4를 활용할 것으로 예상하고 있습니다. 요약하면, AI 및 HPC 분야의 주요 시스템 업체들은 모두 HBM 공급사를 2곳 이상 확보해 안정적인 조달을 추진 중이며, 공급 3사 역시 제품 신뢰성 테스트(qual)를 거쳐 NVIDIA/AMD/Intel의 승인을 얻는 데 총력을 기울이고 있습니다zdnet.co.krbusinesspost.co.kr. 삼성전자가 20242025년 엔비디아와 AMD의 HBM3E 인증을 획득하고, 마이크론도 2025년 엔비디아의 품질 평가를 통과하게 되면trendforce.com HBM 시장은 세 기업이 모두 빅3 고객사에 공급하는 체제로 재편될 전망입니다.

    4. 향후 로드맵 및 전망: HBM3E 이후 HBM4/4E 등 차세대 계획

    2024년을 기점으로 HBM 기술 로드맵은 HBM3E에서 HBM4로 세대 전환을 준비하고 있습니다. HBM3E는 현세대(4세대) HBM3의 성능을 확장한 5세대 HBM으로 자리매김하며, 20242025년에 시장 주류로 자리할 것입니다businesswire.com. 이후 20252026년에 걸쳐 **HBM4(6세대)**가 본격 등장하고, 2027년 이후에는 업그레이드 버전인 **HBM4E(6.5세대?)**까지 계획되고 있습니다. 각 사의 로드맵과 업계 표준 동향을 종합하면 다음과 같습니다:

    • HBM3E (2023~2025): 현재 양산 중인 HBM3E는 핀당 9.29.6Gbps 수준의 속도로 HBM3 대비 약 1.5배 이상의 대역폭을 제공합니다tweaktown.com. 용량도 향상되어 12단 적층 시 36GB까지 구현되었고, 일부 업체는 16단 적층(48GB) 시험도 진행 중입니다trendforce.com. 2024년 하반기부터 HBM3E는 점차 HBM3를 대체하여 AI 가속기 메인 메모리 규격으로 자리잡고 있습니다businesswire.com. SK하이닉스와 삼성, 마이크론 모두 2024년에 HBM3E 제품을 고객사에 공급하거나 공급할 예정이며, 2025년에는 HBM3E 수요가 정점에 달할 것으로 보입니다. SK하이닉스는 2024년 말 16-Hi HBM3E 개발을 완료해 2025년 양산한다는 로드맵을 밝혔고trendforce.com, 마이크론도 같은 시기에 16단 제품으로 따라잡을 계획입니다trendforce.comtrendforce.com. 삼성전자의 경우 HBM3E로 시장 재진입에 주력하면서 병행하여 HBM4로 조기 전환을 노리고 있습니다tomshardware.com. 요약: 202425년에는 12단 36GB HBM3E가 주류이며, 속도 10Gbps, 용량 3648GB 수준까지 진화합니다.
    • HBM4 (2025~2027): HBM4는 JEDEC이 2025년 초 공식 표준(JESD270-4)을 공개하며 기술 사양이 확정되었습니다trendforce.com. HBM4의 가장 큰 변화는 인터페이스 폭이 2048-bit로 2배 증가한 점으로, 핀 속도 8Gb/s만으로 스택당 최대 2TB/s의 대역폭을 달성합니다trendforce.com. (참고로 HBM3는 1024-bit, 6.4Gb/s로 819GB/s) 또한 채널 수도 HBM3의 16채널에서 32채널(각각 2개 서브채널로 구성)로 늘어나 병렬 접근성이 향상되고, 전력 효율도 더욱 개선되었습니다trendforce.com. JEDEC 표준에 따르면 HBM4는 24Gb 혹은 32Gb 밀도의 칩을 4/8/12/16단 적층할 수 있고, 최대 16단 × 32Gb = 64GB 용량의 한 스택을 지원합니다trendforce.com. 실제로 2025년 3월 NVIDIA GTC 행사에서 SK하이닉스는 3GB짜리 DRAM 16개를 적층한 48GB HBM4 시제품(16-Hi, 24Gb die)을 공개했고, 8Gbps 속도로 구동 데모를 선보였습니다techspot.com. 삼성과 마이크론도 비슷한 16단 HBM4 시험칩을 준비하여 전시했으며, 삼성전자는 해당 세대에서 핀속도 9.2Gbps까지 목표한다고 밝혔습니다techspot.com. 업계에서는 초기 HBM4 제품은 12단 36GB 구성이 주류를 이루고(수율 및 안정성 고려), 이후 성숙도에 따라 16단 48GB도 일부 고사양에 적용될 것으로 전망합니다techspot.com. HBM4의 성능 향상은 HBM3E 대비 대역폭 50%+, 용량 33%+ 수준으로, 마이크론은 자사 HBM4가 HBM3E 대비 “성능 50% 이상 향상”될 것이라고 언급했습니다techspot.com. 한편 패키징 측면에서, 앞서 언급한 것처럼 JEDEC는 HBM4에서 완화된 두께 기준(1216단 공통 775µm)을 제시하여 기존 TSV 접합 기술로도 구현 가능함을 확인시켜주었습니다trendforce.com. 그럼에도 삼성전자는 경쟁력 강화를 위해 HBM4 최초 양산 시 하이브리드 본딩 적용을 선언한 상태이며tomshardware.com, SK하이닉스도 MR-MUF 개선과 함께 필요시 하이브리드 본딩을 도입할 대비를 하고 있습니다tomshardware.com. 주요 3사 로드맵을 보면, SK하이닉스는 2025년 초반 일부 고객에 12단 HBM4 샘플 공급 후 2025년 하반기 양산을 예상하고 있고news.skhynix.com, 삼성은 2025년 하반기 양산을 공식화했습니다tomshardware.com. 마이크론은 한발 늦은 2026년 양산 계획이지만 개발은 2025년 내 완료를 목표로 두고 있으며techradar.comdigitimes.com, 2026년부터 양산될 HBM4로 엔비디아 차세대 플랫폼(루빈, Rubin) 물량을 적극 공략하려는 움직임입니다digitimes.com. 요약: 202526년 등장할 HBM4는 스택당 36~64GB 용량, 2TB/s 내외 대역폭을 구현하며, 고적층/고밀도화를 위한 새로운 패키징 기술의 도입이 가속화됩니다.
    • HBM4E 및 향후(2027~): HBM4 출시 후 약 12년 내에 속도·용량을 추가로 높인 HBM4E(확장판)가 나올 것으로 전망됩니다. 구체적 제원은 시기상 유동적이지만, 업계에서는 2027년경 HBM4E가 핀속도 10Gbps 이상, 스택당 64GB 이상을 구현하여 또 한번 도약을 이룰 것으로 보고 있습니다techspot.comtechspot.com. 실제 마이크론은 HBM4E를 202728년 경 출시하겠다고 언급하며, 3648GB의 1216단 제품을 준비할 것이라고 밝혔습니다tomshardware.com. SK하이닉스도 HBM4E 세대에서는 20단 이상의 초고적층을 연구하고 있다고 전해지는데techspot.com, 20단 이상 적층에서 3GB급 칩을 쓰면 6064GB 용량을 구현할 수 있습니다. 삼성전자는 HBM4E에서 32Gb (4GB) 수준의 단품 밀도를 염두에 두고 있어 12단=48GB, 16단=64GB 구성이 가능하다고 밝혔으며, 데이터 레이트는 9.210Gbps+ 범위를 제시했습니다techspot.com. 이러한 초고사양 HBM은 AI 훈련용 초거대 가속기에 쓰일 전망입니다. 예를 들어 엔비디아는 2027년 계획 중인 차차세대 GPU Rubin 플랫폼에서 HBM4E 16스택으로 GPU당 1TB 메모리를 탑재하고, 총 4.6PB/s에 달하는 메모리 대역폭을 구현할 것이라고 예고했습니다techspot.com. (Rubin Ultra 모델: HBM4E 16개 스택 × 64GB = 1TB, 4칩렛 구성 NVL 시스템에서 합계 365TB 메모리)techspot.com. 이처럼 HBM의 용량과 속도 향상 로드맵은 향후 수년간도 가파르게 지속될 것이며, 이에 따라 패키징 혁신과 전력 효율 향상 기술의 중요성도 더욱 커질 것입니다. 장기적으로는 HBM의 베이스 다이(logic die) 설계를 고객사 맞춤형으로 제공하는 등의 부가 서비스도 논의되고 있습니다nextplatform.com. 예컨대 HBM4E 이후에는 특정 고객이 요구하는 연산 기능을 메모리의 로직 층에 통합해주는 등 메모리와 로직의 **공설계(customization)**가 새로운 부가가치가 될 수 있습니다. 이는 HBM이 단순 메모리를 넘어 **서브프로세서화(PIM, 프로세서-인-메모리)**되어가는 방향으로 진화할 가능성도 시사합니다.

    결론적으로, 2024년 시점의 12단 적층 HBM 시장은 SK하이닉스, 삼성전자, 마이크론 3사의 기술경쟁과 공급경쟁이 본격화된 양상입니다. SK하이닉스는 한발 앞선 기술력으로 HBM3E를 선도하고 있고, 삼성과 마이크론은 발빠르게 HBM3E를 따라잡으며 차세대 HBM4에서는 주도권을 잡기 위해 과감한 투자를 진행 중입니다. 제품 사양 면에서는 12단 적층, 36GB 용량, 1TB/s級 대역폭이 공통 키워드이며, 향후 2~3년 내 2TB/s, 64GB 시대를 향해 나아가고 있습니다. 엔비디아와 AMD, 인텔 등 수요기업들과의 긴밀한 협력을 통해 HBM 기술은 초거대 AI 연산에 없어서는 안될 핵심으로 자리잡았으며, HBM4/4E 시대에도 이들 업계 연합의 기술 진보는 계속될 것으로 전망됩니다techspot.comtrendforce.com. 각 기업이 제시한 로드맵대로 HBM4, HBM4E 개발이 순조롭게 이루어진다면, 2025년 이후 등장할 차세대 AI/HPC 시스템은 메모리 용량과 대역폭 측면에서 현재와는 차원이 다른 성능을 보일 것으로 기대됩니다. 이는 곧 “메모리 붕괴벽(memory wall)” 문제를 돌파하는 열쇠가 HBM에 있다는 업계의 평가를 뒷받침해주고 있으며, 대한민국 메모리 2강과 글로벌 메모리 강자인 마이크론의 향후 전략과 경쟁에 전세계가 주목하고 있습니다.

    참고 자료: SK하이닉스 보도자료news.skhynix.comnews.skhynix.com, 트렌드포스/비즈니스와이어 분석businesswire.combusinesswire.com, ZDNet Koreazdnet.co.kr, 삼성전자/마이크론 기술 발표 및 관련 기사nextplatform.commicron.comtomshardware.comtrendforce.com 등. 각주에 출처를 표시하였으며, 최신 공개 정보와 업계 동향을 기반으로 종합 작성하였습니다.

    728x90
Designed by Tistory.