삼성전자가 글로벌 인공지능(AI) 반도체 학회인 '멤콘(MemCon) 2023'에 참석해 차세대 메모리 솔루션을 대거 공개했다.
29일 삼성전자는 최진혁 미주법인 메모리연구소장(부사장)이 최근 미국 캘리포니아주에서 열린 멤콘 2023서 '데이터 중심 컴퓨팅 시대의 메모리 혁신'을 주제로 기조연설을 진행했다고 발표했다.
멤콘 2023은 AI 메모리 솔루션을 다루기 위해 올해 처음 개최된 학회다. 삼성전자는 설립 멤버 자격으로 참석했다. 구글과 마이크로소프트 등 글로벌 IT 기업과 메모리, 디바이스 부문 다양한 업체들도 함께했다.
최 부사장은 이날 프로세서와 메모리 간 병목현상을 해결할 수 있는 삼성전자의 차세대 메모리 기술을 소개했다. 고성능 메모리에 연산 기능을 내장한 'HBM-PIM(지능형 반도체)', 연산 기능을 메모리 옆에 위치시킨 'PNM(프로세싱 니어 메모리)', 시스템의 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 'CXL(컴퓨트 익스프레스 링크) D램' 등이다.
이와 함께 SSD(솔리드 스테이트 드라이브) 내부 연산 기능을 강화한 2세대 스마트SSD와 서버 시스템의 공간 활용도를 높인 페타바이트 스토리지, AI와 머신러닝에 최적화된 ‘메모리 시맨틱 SSD’ 등도 함께 소개했다.
반도체 업계는 AI 반도체의 성능 고도화에 집중하고 있다. 자율주행과 휴먼 로봇, 음성인식, 메타버스 등 다양한 미래 기술이 융합되는 사례가 늘어나고 있다. 이처럼 데이터 흐름이 복잡해지고 데이터 양이 폭증하고 있는 상황에서 AI 반도체의 주목도가 커지고 있다는 설명이다.
시장조사업체 가트너는 글로벌 AI 반도체 시장이 지난해 444억달러 규모에서 2026년엔 861억달러에 이를 것으로 분석했다.
특히 생성형 AI인 챗GPT가 활성화되면서 데이터를 원활하게 처리할 수 있는 차세대 메모리 기술이 새롭게 떠오르고 있다는 전언이다. 업계 관계자는 "챗GPT와 같은 대규모 AI 모델의 경우 메모리 병목현상으로 지연되는 부분이 80%에 달하는 것으로 추정된다"며 "이럴 경우 문장 생성 속도가 지연되는 등의 문제가 발생한다"고 말했다.
삼성전자는 대규모 AI 모델에 HBM-PIM 기술을 적용할 경우 기존 HBM이 탑재된 GPU(그래픽처리장치) 가속기에 비해 AI 모델의 생성 성능이 3.4배가량 개선될 것으로 분석했다. 이와 함께 CXL 기반 PNM 기술 적용 시 기존 GPU 가속기 대비 D램 용량은 4배 증가하고 AI 모델의 로딩 속도는 2배 이상 빨라진다고 설명했다.
회사 관계자는 "삼성전자는 시장의 요구에 부응하고, 메모리 산업의 지속적 발전을 위해 다양한 차세대 메모리 솔루션을 개발할 것"이라며 "글로벌 IT기업들과 협력을 강화해 메모리 패러다임 변화를 지속해서 주도해 나가겠다"고 말했다.
배성수 기자 baebae@hankyung.com