올해 반도체 산업의 최대 승부처인 6세대 고대역폭메모리(HBM4)를 놓고 SK하이닉스와 삼성전자의 경쟁이 치열하다. SK하이닉스는 검증된 공급 안정성을 무기로 주도권 수성에 나선 반면, 삼성전자는 데이터 처리 속도를 승부수를 띄우며 자존심을 되찾겠다는 의지가 강하다. 양사 모두 HBM이 실적 견인의 일등공신인 만큼 HBM4 주도권 선점에 전사적인 역량을 쏟고 있다.
'AI 반도체 도로' 두 배 넓어진다
5일 반도체 업계에 따르면 SK하이닉스와 삼성전자는 HBM4 대량 생산을 위한 준비를 사실상 마무리했다. SK하이닉스는 올해 엔비디아 HBM4 수요의 약 70%를 공급하기로 했고, 현재 고객사 일정에 맞춰 양산 단계에 진입했다. 삼성전자는 이번달 엔비디아, AMD 등 주요 고객사에 HBM4를 정식 납품할 예정이다.HBM은 AI 칩 옆에 붙어 초고속으로 데이터를 주고받는 특수 메모리로, AI 학습과 추론 속도를 좌우하는 '데이터 고속도로' 역할을 한다. 기술적으로 HBM은 TSV(Through-Silicon Via) 기반 3차원 적층 DRAM으로, 그래픽처리장치(GPU)와 AI 가속기 옆에 실장돼 초당 수 테라바이트(TB/s)의 데이터 전송을 제공한다. 최신 규격인 HBM3E와 차세대 버전인 HBM4는 메모리 대역폭과 에너지 효율을 동시에 높여 AI 학습·추론 비용 구조를 결정짓는 핵심 부품이 됐다.
최근 업계의 최대 화두는 기존 HBM3E에서 HBM4로의 전환이다. 이 변화는 단순한 속도 업그레이드가 아니라 AI 반도체 구조 자체를 바꾸는 수준의 전환이라는 평가를 받는다. HBM3E는 현재 엔비디아의 AI 가속기 등에서 주력으로 쓰이고 있는 메모리다. 쉽게 말해 지금까지의 AI 시스템은 '4차선 고속도로'를 쓰고 있었다고 볼 수 있다. HBM3E는 이 도로 위를 달리는 자동차(GPU와 AI 칩)가 더 빨리 달릴 수 있도록 제한 속도를 높인 버전이다. 하지만 차선 수는 그대로다. 더 많은 데이터를 보내려면 속도를 계속 높여야 하고 그만큼 전기가 많이 소모되고 발열 문제가 발생한다.
HBM4는 설계가 다르다. 차가 더 빨리 달리게 하는 대신 도로 자체를 넓혔다. HBM3E가 1024개의 데이터 통로를 갖고 있었다면, HBM4는 이를 2048개로 두 배로 늘렸다. 차선을 두 배로 늘린 '8차선 고속도로'가 되는 셈이다. 자동차(GPU) 한 대, 한 대가 무리해서 빨리 달리지 않아도 전체 교통량을 훨씬 많이 처리할 수 있다. 전기를 덜 쓰면서도 훨씬 많은 데이터를 동시에 처리할 수 있는 구조다.
HBM4는 한 발 더 나아가 도로 밑에 '교통 관제 센터'를 넣었다. HBM3E까지는 메모리가 단순히 데이터를 저장하고 보내는 창고 역할에 머물렀다. HBM4에는 메모리 아래쪽에 로직다이라는 작은 연산·제어 칩이 들어가 데이터 흐름과 전력 사용을 직접 관리한다. 단순 창고가 아니라 자동화된 스마트 물류센터로 진화한 것에 비유할 수 있다. 덕분에 GPU는 메모리를 더 효율적으로 사용할 수 있고, AI 연산 속도와 전력 효율이 동시에 개선된다.
SK하이닉스의 '안정성' vs 삼성전자의 '시스템 통합 능력'
글로벌 HBM 시장은 SK하이닉스와 삼성전자가 양분하고 있지만 두 회사가 가진 경쟁력은 용량이나 속도 비교를 넘어 공정·패키징·수율·고객 검증 체계까지 포함하는 구조적 차이를 보인다. SK하이닉스는 HBM3E를 가장 먼저 안정적으로 양산·공급하며 표준에 가까운 기술력을 구축했다. 업계 관계자는 "SK하이닉스는 12단의 높은 적층과 고대역폭 구현, 패키징 신뢰성에서 이미 대규모 고객 검증을 거쳤다는 점이 강점"이라며 "이는 단순한 스펙이 아니라 실제 AI 서버 환경에서 수율과 신뢰성을 입증했다는 의미"라고 짚었다.높은 시장 점유율은 단순한 영업력이 아니라 수율 안정화와 생산 스케일업을 먼저 달성했다는 신호다. HBM은 일반 DRAM 대비 공정 난이도가 훨씬 높고, 수율이 낮으면 수익성이 급격히 악화되기 때문에 '먼저 안정화한 업체'가 구조적으로 유리하다. SK하이닉스는 이 구간에서 한발 앞서며 고객사를 묶어두는 효과를 만들었다.
삼성전자는 SK하이닉스와의 격차를 HBM4에서 만회하겠다는 전략을 세우고 다른 접근법을 구사했다. 최신 DRAM 공정(1c 나노급)과 TSV·패키징 기술을 결합해 HBM4 세대에서 전력 효율과 집적도를 끌어올리는 데 집중했다. 또한 주요 고객사들과 HBM4 기반 차세대 플랫폼 협력을 확대했다. 파운드리(반도체 수탁생산)와 로직, 메모리를 동시에 보유한 종합 반도체 기업(IDM)이라는 점은 장기적으로 HBM과 AI 가속기 간의 공동 최적화에서 큰 무기가 된다. AI 칩 설계 단계에서부터 HBM의 전력·열·대역폭 특성을 함께 조정할 수 있다는 점은 메모리 공급자를 넘어 '시스템 파트너'로 진화할 수 있다는 뜻이다.
업계 관계자는 "HBM3E까지는 메모리 회사가 '얼마나 빠르고 안정적인 메모리를 만드느냐'가 경쟁의 핵심이었다면 HBM4부터는 'GPU와 메모리를 함께 설계할 수 있느냐'가 승부처가 된다"며 "HBM4는 GPU 칩의 전원 구조, 발열 설계, 패키지 크기까지 함께 바꿔야 하기 때문에 메모리 업체와 AI 칩 설계사가 사실상 한 팀이 돼야 한다"고 설명했다.
"HBM4 점유율 SK하이닉스 54%, 삼성전자 28%"
HBM3E 시대를 주도한 SK하이닉스가 HBM4 세대 전환에서는 삼성전자에 선수를 빼앗기면서 HBM의 지형이 바뀔 수 있다는 전망도 나온다. SK하이닉스는 5세대 HBM인 HBM3E로 엔비디아를 비롯한 주요 인공지능(AI) 반도체 고객사를 확보하며 시장을 주도해왔다. 시장조사 업체 카운터포인트리서치에 따르면 지난해 2분기 기준 HBM시장에서 SK하이닉스는 약 62%의 점유율을 보이며 경쟁사들을 크게 앞섰다. 마이크론과 삼성전자는 각각 약 21%, 17%에 그쳤다. SK하이닉스는 올해도 HBM3E 중심의 출하로 수익성을 이끌 것으로 전망된다.하지만 엔비디아를 비롯한 주요 고객사의 차세대 AI가속기 설계가 구체화되면서 HBM4에 요구되는 사양이 당초 예상보다 크게 높아져 인터페이스와 전력구조 전반의 추가 조정이 불가피해졌다. 이 과정에서 SK하이닉스는 기존 설계를 유지한 채 제품 구조를 재정비하는 쪽으로 방향을 틀었다. 기술 난도가 높아진 차세대 제품을 일찍 공급하기보다 본격적인 양산 국면에서의 안정성을 택한 것으로 보인다.
HBM3E 경쟁에서 뒤처졌던 삼성전자는 HBM4로 반전을 노려야만 하는 상황이다. HBM4에서 고객사의 요구를 넘어서는 대역폭과 속도 등을 확보하는 것을 최우선 과제로 삼고 '첫 공급자'라는 타이틀을 거머쥐며 자존심을 회복했다. 엔비디아 퀄테스트(품질검증)를 빠르게 통과하고 초기 공급에 성공한 비결도 여기에 있다. HBM4는 차기 기술로만 거론되는 단계가 아니라 엔비디아의 차세대 AI가속기에 실제 탑재가 예정된 제품이기 때문에 삼성으로서는 HBM4를 가장 먼저 공급했다는 사실이 기술경쟁력과 신뢰도를 동시에 보여주는 신호가 될 수 있다.
삼성전자는 자체 파운드리를 활용해 HBM4 로직다이를 4나노(㎚·1나노는 10억분의 1m)급 첨단공정으로 생산해 설계와 공정최적화를 동시에 추진하는 반면 SK하이닉스는 로직다이 생산을 대만 TSMC 등 외부 파운드리에 의존할 수밖에 없는 구조다. 업계에서는 이런 차이가 인터페이스 최적화와 일정 대응, 공급안정성 측면에서 경쟁력 격차로 이어질 수 있다고 평가했다.
HBM을 중심을 한 메모리 반도체의 위상 변화는 삼성전자와 SK하이닉스의 실적 전망에도 반영되고 있다. 글로벌 투자은행(IB) 모건스탠리는 올해 삼성전자와 SK하이닉스의 영업이익을 각각 245조원, 179조원으로 전망했다. 양사의 작년 영업이익인 43조6000억원, 47조2000억원 대비 4~5배 증가한다는 것이다. 모건스탠리는 "2026년 양사 모두 전례 없는 공급 제약 단계에 진입했고 올해 전체 메모리 물량은 완판된 상태"라며 "과거와 비교해 자본 효율성이 높고 고마진 구조가 정착된 상태"라고 했다. 카운터포인트리서치는 올해 글로벌 HBM4 시장 점유율이 SK하이닉스 54%, 삼성전자 28%로 양사가 80% 이상을 차지할 것으로 전망했다.

강경주 기자 qurasoha@hankyung.com