<앵커>
구글이 AI 압축 알고리즘인 '터보퀀트'를 공개하면서 메모리 반도체 시장에 충격을 줬습니다.
터보퀀트가 실제로 메모리 시장의 게임체인저가 될지, 아니면 과도한 해석일지, 산업부 김대연 기자와 짚어보겠습니다.
김 기자, 가장 큰 이슈부터 살펴보죠. 터보퀀트가 메모리 수요를 6분의 1로 줄일 수 있는 건가요?
<기자>
메모리 수요가 아니라 일부 사용량을 최대 6분의 1 수준까지 줄인다는 의미입니다.
터보퀀트는 추론 과정에서 쓰는 KV캐시를 압축하는 기술인데요.
쉽게 비유하면, KV캐시는 AI가 대화 중 참고하는 '임시 기억 메모장'입니다.
사람이 앞서 한 말을 기억해 대화를 이어가는 것과 유사합니다.
AI도 이전 정보를 저장해놓고 활용하는데요. 이 데이터가 쌓이는 공간이 KV캐시입니다.
당연히 대화가 길어질수록 KV캐시는 계속 늘어나고요. 연산이 복잡해질수록 메모리 사용량도 함께 증가합니다.
이 때문에 대규모언어모델(LLM)이 고대역폭메모리(HBM)나 D램을 많이 쓰는 구조입니다.
KV캐시는 이 중 일부에 불과하고요. 결국 터보퀀트가 AI 모델의 몸집 자체를 줄인 기술은 아닌 건데요.
HBM이나 D램 등 전체 메모리 수요가 6분의 1로 줄어든다고 보는 것은 과도한 해석이라는 지적입니다.
<앵커>
구글이 터보퀀트의 정확도는 그대로 유지했다고 했는데, 이건 사실입니까?
<기자>
터보퀀트는 KV캐시를 16비트에서 3비트로 압축한 AI 알고리즘인데요.
기존 데이터 압축 기술들은 4비트 이하에서 정확도가 크게 떨어졌습니다.
하지만 구글은 "터보퀀트의 정확도 손실이 '0'"이라고 밝혔습니다.
단, 조건이 붙습니다. 롱컨텍스트 등 일부 벤치마크에 한정된 결과입니다.
KV캐시처럼 일부 데이터에만 적용했기 때문에 성능 영향이 제한적이었다는 설명인데요.
특정 환경에서는 손실이 거의 없다고 해도 모든 작업에서 동일하게 적용될지는 미지수입니다.
<앵커>
그렇다면 터보퀀트가 언제 상용화될 수 있을 것으로 보입니까?
<기자>
당장 상용화 시점을 논하기엔 이르다는 게 학계 중론입니다. 아직 이론적인 수준에 불과하다는 건데요.
실제로 구글이 터보퀀트 관련 논문을 공개한 지 이틀 정도밖에 지나지 않았고요.
특정 조건에서만 성능이 검증된 만큼 모든 모델과 그래픽처리장치(GPU)에 적용하기까지는 시간이 필요합니다.
물론 구글은 터보퀀트가 별도의 추가 학습이 필요 없도록 설계된 기술이라고 설명합니다.
이미 학습된 LLM의 추론 단계에 그대로 붙여 쓸 수 있다는 건데요.
KV캐시를 압축하는 과정에서 속도 저하, 신호 손실, 오답 생성 등 문제가 발생할 수 있다는 지적이 나왔습니다.
전문가 의견 들어보겠습니다.
[이종환 / 상명대 시스템반도체공학과 교수: 다양한 AI 반도체와의 조합 측면에서 문제가 없어야 되거든요. 기술적으로 검증할 부분에서 문제가 없어야 하기 때문에 아주 빠르게 (상용화) 될 것 같지는 않습니다.]
<앵커>
터보퀀트가 기존 메모리 시장에 영향을 줄 수 있을지, 업계 이야기도 들어봤다고요?
<기자>
시장에서는 결국 삼성전자나 SK하이닉스의 메모리 수요가 줄어드는 게 아니냐는 우려가 크죠.
단기적으로는 낸드플래시보다 휘발성 메모리인 D램에 타격을 줄 수 있다는 의견도 나오는데요.
다만, 업계에서는 터보퀀트가 메모리 시장의 판도를 바꿀 수준은 아니라고 평가합니다.
'제본스의 역설'을 근거로 들었는데요. 효율이 좋아질수록 오히려 소비가 증가한다는 개념입니다.
실제로 터보퀀트로 비용이 감소하면, AI 활용이 확대되면서 장기적으로 메모리 수요를 부추길 수 있다는 분석입니다.
[박준영 / 산업인류학연구소장(전 삼성전자 반도체 연구원): 딥시크와 유사한 형태이긴 하거든요. 지금 안 그래도 메모리가 부족한데…개별 기업들이 (사용량이) 6분의 1이니까 '메모리를 6분의 1씩 사면 되겠다'고 생각하지 않는다는 거죠.]
특히 국내 반도체 기업들은 터보퀀트와 HBM 등 고성능 메모리의 역할이 다르다는 점을 강조했는데요.
터보퀀트는 '비용과 효율', HBM은 '성능과 속도' 개선이 목적입니다.
업계에서는 터보퀀트가 기존 메모리를 대체하기보다 상호 보완적으로 발전할 것으로 보고 있습니다.
<앵커>
잘 들었습니다. 산업부 김대연 기자였습니다.