[PRNewswire] 슈퍼마이크로, 대형 분산 학습 AI 시스템 공급을 위해 인텔과 협업

입력 2019-11-19 09:34
[PRNewswire] 슈퍼마이크로, 대형 분산 학습 AI 시스템 공급을 위해 인텔과 협업

- 인증된 솔루션은 니어 리니어 스케일링 효율이 높은 하나의 AI 클러스터 내에서 천 개 이상의 인텔 네르바나 NNP-T ASIC 스케일업 가능

(덴버 2019년 11월 19일 PRNewswire=연합뉴스) 기업 컴퓨팅, 스토리지, 네트워킹 솔루션과 그린 컴퓨팅 기술 분야의 글로벌 리더 슈퍼마이크로컴퓨터[Super Micro Computer, Inc. (SMCI)]는 인텔(R) 네르바나(TM) 신경망 학습 프로세서(NNP-T) 상에서 인증된 AI 솔루션에 대해 인텔과 협업한다. 인텔 NNP-T는 증가하고 있는 딥러닝 학습 모델의 컴퓨팅 니즈를 충족하는 목적 지향 AI 학습 ASIC이다.

찰스 량 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 네르바나 NNP-T 플랫폼에 대해 인텔과 협업하게 되어 기쁘게 생각한다"면서 "컴퓨팅, 통신과 메모리 사이의 균형을 맞추고 슈퍼마이크로 시스템 상에서 인증된 NNP-T ASIC는 새시 링크들의 내부와 그 사이를 경유하여 니어 리니어 스케일링 효율이 높은 대형 AI 모델들을 학습시킬 수 있다"고 말했다.

인텔 네르바나 NNP-T는 메모리의 제약을 해결하며 랙이 있는 시스템들을 통해 오늘날의 솔루션들보다 더 쉽게 스케일아웃할 수 있도록 설계되었다. 슈퍼마이크로는 인증 절차의 일환으로 8개의 NNP-T 프로세서, 두 개의 2세대 인텔(R) 제온(R) 스케일러블 프로세서, PCIe 카드와 OAM 폼팩터 둘 모두를 지원하는 노드 당 최대 6TB DDR4 메모리를 통합했다. 슈퍼마이크로 NNP-T 시스템들은 2020년 중반에 출시될 것으로 예상된다.

인텔의 법인 부사장 겸 인공 지능 제품 담당 제너럴매니저인 나빈 라오는 "슈퍼마이크로는 우리의 딥러닝(DL) 솔루션을 인증했으며, 우리가 카드 및 서버 디자인, 인터커넥트와 랙 등 네르바나 NNP-T 시스템 아키텍처를 입증할 수 있도록 지원하고 있다"고 말했다.

복잡한 딥러닝 모델을 위해 강력한 컴퓨팅 성능 및 고효율의 메모리 아키텍처를 탑재하고 있는 슈퍼마이크로 NNP-T AI 시스템은 두 건의 실제적인 핵심 고려 사항 즉, 늘 복잡한 AI 모델들을 빠르게 학습시킬 수 있다는 것과 그 작업을 주어진 전력 할당량 내에서 진행할 수 있다는 것을 입증할 수 있도록 개발되었다. 동 시스템은 이미지와 스피치를 통한 AI 모델에 대한 더 빠른 학습, 더 효율적인 석유 가스 탐사, 더 정확한 의료 이미지 분석, 더 빠른 자율주행 모델 개발을 실현한다.

캘리포니아대학 샌디에고 분교 산하의 연구조직인 샌디에고슈퍼컴퓨터센터 부원장 션 스트랜드는 "우리는 인텔과 슈퍼마이크로와 협업하고 NNP-T 시스템 아키텍처를 활용함으로써 첨단 연구를 진행하며 과학과 엔지니어링 애플리케이션에 사용할 수 있는 혁신적인 컴퓨팅 및 데이터 분석 능력을 확보한다"고 말했다.

슈퍼마이크로는 PCIe 카드가 탑재된 NNP-T AI 시스템을 콜로라도주 덴버 소재 콜로라도컨벤션센터에서 2019년 11월 17-22일에 열리는 SC19의 1211번 부스에서 쇼케이스한다.

슈퍼마이크로컴퓨터

고성능, 고효율 서버 기술을 리드하는 혁신 기업인 슈퍼마이크로(SMCI)는 전 세계의 데이터센터, 클라우드 컴퓨팅, 기업용 IT, 하둡/빅데이터, HPC와 임베디드 시스템을 위한 첨단 서버빌딩블록솔루션즈(Server Building Block Solutions(R))의 최고 공급 업체이다. 슈퍼마이크로는 동사의 "우리는 그린 IT를 지킨다(We Keep IT Green(R))"라는 운동을 통해 환경 보호에 공헌하고 있으며 최고로 에너지 효율적이며 친환경적인 솔루션을 고객들에게 시장에서 공급하고 있다.

Supermicro, Building Block Solutions와 We Keep IT Green은 슈퍼마이크로컴퓨터의 상표 및/혹은 등록상표이다.

인텔, 인텔 로고와 기타의 인텔 마크들은 미국 및/혹은 기타 국가에 있는 인텔코포레이션 혹은 동사 자회사들의 상표이다.

기타 모든 브랜드, 명칭과 상표는 그들 각 소유자들의 재산이다.

SMCI-F

사진 - https://mma.prnewswire.com/media/1030496/super_micro_computer.jpg

출처: 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.)

Supermicro Collaborates with Intel to Deliver Large Scale Distributed Training AI Systems

- Validated Solution Can Scale Up Over a Thousand Intel Nervana NNP-T ASICs in One AI Cluster with Near-Linear Scaling Efficiency

DENVER, Nov. 19, 2019 /PRNewswire/ -- Super Micro Computer, Inc. (SMCI), a global leader in enterprise computing, storage, networking solutions, and green computing technology, is collaborating with Intel on AI solutions that are validated on the Intel(R) Nervana(TM) Neural Network Processor for Training (NNP-T). Intel's NNP-T is a purpose-built AI training ASIC supporting the growing compute needs of deep learning training models.

"Supermicro is excited to cooperate with Intel for the Nervana NNP-T platform," said Charles Liang, president, and CEO of Supermicro. "Striking a balance among computing, communication, and memory, the validated NNP-T ASICs on Supermicro systems can train large AI models with near-linear scaling efficiency via intra- and inter-chassis links."

The Intel Nervana NNP-T solves memory constraints and is designed to scale out through systems with racks easier than today's solutions. As part of the validation process, Supermicro integrated 8 NNP-T processors, dual 2nd Generation Intel(R) Xeon(R) Scalable processors, up to 6TB DDR4 memory per node supporting both PCIe card and OAM form factors. Supermicro NNP-T systems are expected to be available mid-year 2020.

"Supermicro has validated our Deep Learning (DL) solution and is helping us prove the Nervana NNP-T system architecture, including card and server design, interconnect, and rack," said Naveen Rao, corporate vice president and general manager, Artificial Intelligence Products Group, Intel Corp.

With high compute utilization and high-efficiency memory architecture for complex deep learning models, the Supermicro NNP-T AI System is built to validate two key real-world considerations: accelerating the time to train ever-complex AI models and doing it within a given power budget. The system enables faster AI model training with images and speech, more efficient gas & oil exploration, more accurate medical image analytics, and faster autonomous driving model generation.

"We are collaborating with Intel and Supermicro leveraging the NNP-T system architecture for enhanced research and discovery of innovative computational and data analysis capabilities for science and engineering applications," said Shawn Strande, Deputy Director, San Diego Supercomputer Center, a research unit of the University of California, San Diego.

Supermicro is showcasing the NNP-T AI System with PCIe cards at SC19, November 17-22, 2019, in booth #1211, at the Colorado Convention Center in Denver, Colorado.

About Super Micro Computer, Inc.

Supermicro (SMCI), the leading innovator in high-performance, high-efficiency server technology is a premier provider of advanced server Building Block Solutions(R) for Data Center, Cloud Computing, Enterprise IT, Hadoop/Big Data, HPC and Embedded Systems worldwide. Supermicro is committed to protecting the environment through its "We Keep IT Green(R)" initiative and provides customers with the most energy-efficient, environmentally-friendly solutions available on the market.

Supermicro, Building Block Solutions and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.

Intel, the Intel Logo and other Intel marks are trademarks of Intel Corporation or its subsidiaries in the U.S. and/or other countries.

All other brands, names and trademarks are the property of their respective owners.

SMCI-F

Photo - https://mma.prnewswire.com/media/1030496/super_micro_computer.jpg

Source: Super Micro Computer, Inc.

[편집자 주] 본고는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았음을 밝혀 드립니다.

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>