<앵커>
글로벌 빅테크들이 앞다퉈 AI 투자를 늘리면서 미국의 데이터센터 건설 지출도 역대 최대 수준을 기록했습니다.
특히 AI칩에 핵심역할을 할 차세대 HBM4 수요도 폭발하고 있습니다.최근에는 HBM의 대안으로 GDDR7과 고대역폭플래시인 HBF도 떠오르고 있습니다.
격변하는 AI 반도체 시장, 산업부 홍헌표 기자와 알아보겠습니다. 미국의 AI 투자규모를 보면 AI 거품론은 완전히 사라진 것 같군요?
<기자>
미국 데이터센터 건설비가 역대 최대치를 기록했습니다.
올해 6월 기준 미국의 데이터센터 건설 지출은 400억 달러(약 55조 7600억 원)에 달했습니다.
마이크로소프트와 알파벳, 아마존 등 주요 테크 기업들이 AI 인프라를 갖추기 위해 천문학적인 돈을 쏟아붓고 있기 때문입니다.
글로벌 빅테크들은 각각 데이터센터 구축에만 연간 우리 돈으로 100조원씩 쓰고 있습니다.
특히 투자금액도 지난해 책정했던 예산보다 더 늘리고 있는 상황입니다.
이에 MS와 알파벳, 아마존, 메타 등 4개 기업이 AI 인프라 구축에 오는 2028년까지 연간 3,850억 달러(약 535조 원)를 쓸 것으로 전망하고 있습니다
최근 오픈AI와 컴퓨팅 계약을 맺은 오라클도 데이터센터를 현재 37개에서 71개로 두 배가량 확대할 계획입니다.
<앵커>
AI 데이터센터 투자가 확대되면 서버에 들어가는 HBM 수요 역시 덩달아 증가할텐데, HBM4 수요가 급증할 것으로 예상된다고요?
<기자>
AI 데이터센터에는 서버, 스토리지, 네트워크 장비 등이 들어가게 되는데요,
여기서 AI 서버에 GPU, NPU 등이 들어가고 결국 엔비디아, 브로드컴, AMD의 AI 칩에 HBM4가 탑재되는 흐름으로 이해하시면 됩니다.
빅테크들의 AI 수요와 데이터 처리량이 폭발적으로 높아지면서 고성능의 HBM 수요도 급증하고 있습니다.
엄청난 양의 데이터센터 전력을 쓰기 때문에 메모리의 효율성이 그만큼 중요해졌기 때문입니다.
이에 고객사들은 HBM3E를 넘어 HBM4와 HBM4E까지 요구하고 있는 것으로 알려졌습니다.
SK하이닉스와 삼성전자, 미국의 마이크론 등 메모리 3사가 연구개발과 생산에 총력을 기울이고 있지만 여전히 HBM은 공급이 부족한 상황입니다.
이런 상황에서 SK하이닉스가 세계 최초로 HBM4 양산체제를 구축하면서 시장을 이끌고 있습니다.
증권가에서는 HBM4 시장에서도 SK하이닉스가 선두로 치고 나갈 것으로 전망하면서 목표주가도 일제히 올렸습니다.
경쟁자인 삼성전자는 현재 HBM4 12단 제품을 개발 완료하고 주요 고객사에 샘플을 출하한 상태입니다.
그동안 문제였던 HBM 후공정 수율이 상당히 개선됐다는 평가가 나옵니다.
<앵커>
우리가 HBM4에 집중하고 있는 가운데, 최근에는 기존 메모리라고 볼 수 있는 GDDR7이 주목받고 있습니다. AI 칩에 꼭 HBM을 탑재하지 않고, GDDR7을 넣어도 충분한 연산이 가능하다는 건가요?
<기자>
AI 산업의 발전이 점차 고도화되고 노하우가 쌓이면서 AI칩 개발에서도 세분화 현상이 나타나고 있습니다.
AI 칩은 추론이나 학습, 연산 가속 등 다양하게 활용이 되는데요, 모든 분야에서 꼭 최고 사양의 AI칩을 써야하는 것은 아닙니다.
지난 15일 일론 머스크 테슬라 CEO는 "삼성의 텍사스 공장에서 AI5가 아니라 AI6를 생산할 예정"이라면서 "HBM 사용 여부는 아직 결정되지 않았다"고 밝혔습니다
그러면서 "유용한 연산과 와트당 연산 단위 비용효율 측면에서 오히려 기존 D램이 상대적으로 유리할 수 있다"고 덧붙였습니다.
최근에는 범용성이 넓은 엔비디아의 GPU가 아니라 기업들이 직접 요구하는 주문형 반도체(ASIC) 시장이 커지고 있는데요,
이에 메모리 반도체도 그 기업이 요구하는 수준의 AI칩에 맞게 가동되면 된다는 의미로 해석됩니다.
또 엔비디아의 경우 중국에 수출하기 위해 블랙웰 칩의 저사양 버전인 B40 생산을 준비 중인데요,
여기에는 HBM3E 대신 GDDR7을 탑재할 예정으로 삼성전자에 생산량을 늘려 달라고 요청한 것으로 알려졌습니다.
AI가 글을 이해하고 피드백하는데 특화된 추론형 칩인 '루빈 CPX'에도 GDDR7이 들어갑니다.
HBM보다는 성능이 떨어지지만 GDDR7의 효율이 크게 개선됐고, 가격과 대량 생산에 이점이 있는만큼 엔비디아도 다변화 전략에 들어갔다는 분석입니다.
<앵커>
GDDR7이 탑재로 AI 반도체 시장도 변화가 일어나고 있습니다. 여기에 일부에서는 고대역폭메모리(HBM)가 아닌 고대역폭플래시(HBF)를 개발한다는 소식도 나옵니다. HBF가 HBM의 대안이 될 수 있습니까?
<기자>
글로벌 낸드플래시 점유율 5위 회사인 미국의 샌디스크가 고대역폭플래시메모리(HBF) 개발에 들어갔습니다.
HBM이 D램을 쌓아올린 것이라면 HBF는 낸드플래시를 쌓아올린 겁니다.
용량을 키우기 어려운 HBM과 달리 낸드는 메모리의 크기를 키울 수 있는 것이 장점입니다.
HBM 시장이 커지고 있지만 만성적으로 공급이 부족한 상황이기 때문에 이를 대체하기 위해 HBF를 개발하겠다는 의도입니다.
샌디스크는 지난 달 SK하이닉스와 HBF 개발 MOU도 체결하고, 2027년 초 추론 AI를 위한 HBF 샘플을 공급할 것이라고 밝혔습니다.
다만 상용화는 일러야 2029년으로 예상되고, 낸드는 D램에 비해 데이터 처리 속도가 느려 고사양의 AI 가속기에는 부적합하다는 평가입니다.
이에 HBF는 속도는 느리지만 큰 용량과 낮은 전력이 요구되는 AI에 활용될 것으로 보입니다.
전문가들은 HBF가 HBM을 대체하기는 어렵지만 보충적인 역할은 할 수 있을 것으로 내다보고 있습니다.
<앵커>
잘 들었습니다.
뉴스
