SK하이닉스, HBM3E 세계 첫 대량 양산…고객사 엔비디아는 새 AI칩 공개

입력 2024-03-19 10:36
수정 2024-03-19 10:36

AI 성능이 대폭 향상되면서 5세대 HBM을 서둘러 공급하려는 우리 기업들의 경쟁도 치열할 전망입니다.

자세한 내용 정재홍 기자 연결합니다. 정 기자, 전해주시죠.


엔비디아는 우리시간 오늘 새벽 미국 새너제이에서 열린 GTC 2024에서 차세대 AI 반도체 'B200'을 공개했습니다.

GTC 2024는 엔비디아가 여는 AI 개발자 컨퍼런스로, 올해 약 30만 명의 인원이 몰릴 전망입니다.

젠슨 황 엔비디아 CEO는 방금 전 키노트 스피치에서 1만 명의 관중을 대상으로 차세대 AI 반도체 솔루션을 제시했습니다.

2,080억 개의 트랜지스터를 탑재한 B200은 현재 자사 최신 제품인 H100 보다도 최대 30배 빠른 인공지능 추론 속도를 지원합니다.

성능이 대폭 향상됐지만 전체 전력 소모량은 4분의1로 낮춘 게 또 다른 특징입니다.

AI 반도체 시장 주도권을 쥐고 있는 엔비디아지만 AMD와 인텔 등 후발주자들의 추격이 거세지면서 신제품 출시 주기를 앞당겼다는 평가입니다.

업계에서는 B200 개당 가격이 기존 H100 보다 최소 1만 달러 이상 높은 5만 달러에 달할 것으로 예상합니다.



특히 삼성전자는 지난달 세계 최초로 공개한 12단 5세대 HBM3E 제품을 엔비디아에 선보입니다.

삼성전자가 12단 제품을 외부에 공개하는 건 이번이 처음으로, 상반기내 엔비디아에 공급하겠다는 목표입니다.

SK하이닉스는 5세대 HBM3E 대규모 양산에 돌입해 이달 말 고객사에 공급을 시작한다고 밝혔습니다.

이는 회사가 지난해 8월 HBM3E 개발을 알린 지 7개월만입니다.

SK하이닉스는 "HBM3에 이어 HBM3E 역시 가장 먼저 고객에 공급하게 됐다"며 "HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어 가겠다"고 강조했습니다.

회사가 직접적으로 고객사를 언급하진 않았지만 제품은 주로 엔비디아에 납품될 전망입니다.

5세대 HBM 양산에 성공했다고 밝힌 미국 마이크론도 이번 행사에서 별도 전시부스를 차립니다.

엔비디아가 이번에 공개한 차세대 B200에는 5세대 HBM3E 제품이 8개나 들어가고 메모리 용량도 대폭 늘어납니다.

계속된 AI 반도체 수요에 SK하이닉스의 올해 D램 매출에서 HBM 비중은 20% 이상으로 예상됩니다. 이는 연간 10조 원 규모에 달하는 수치입니다.

지금까지 뉴스국에서 한국경제TV 정재홍입니다.