[PRNewswire] 슈퍼마이크로, 싱글 4U 서버에서 5 PetaFLOPS AI 성능 제공

입력 2020-05-15 09:44
[PRNewswire] 슈퍼마이크로, 싱글 4U 서버에서 5 PetaFLOPS AI 성능 제공

- 완전 통합 NVIDIA A100 GPU 기반 시스템으로 포트폴리오 확장

- 새로운 NVIDIA A100 GPU, 3세대 NVIDIA NVLink, NVIDIA NVSwitch 완벽 지원

- AI, 딥 러닝, 데이터 과학, 컴퓨팅 워크로에 최적화된 업계의 가장 광범위한 GPU 서버 포트폴리오 성능 향상

(새너제이, 캘리포니아주 2020년 5월 14일 PRNewswire=연합뉴스) 기업용 컴퓨팅, 스토리지, 네트워킹 솔루션과 그린 컴퓨팅 기술 분야의 글로벌 리더 슈퍼마이크로컴퓨터[Super Micro Computer, Inc. (Nasdaq: SMCI)]가 인공 지능(AI) 딥 러닝 응용 프로그램을 위해 설계된 두 가지 새로운 시스템을 발표했다. 이는 새로운 NVIDIA A100™ 텐서 코어 GPU를 갖춘 3세대 NVIDIA HGX™ 기술을 활용함과 동시에 회사의 광범위한 1U, 2U, 4U, 10U GPU 서버 포트폴리오에서 새로운 NVIDIA A100 GPU를 완벽하게 지원한다. NVIDIA A100은 교육, 추론, HPC, 분석을 통합하는 최초의 탄력적(Elastic), 다중 인스턴스 GPU이다.

슈퍼마이크로의 CEO 겸 사장인 찰스 리앙(Charles Liang)은 "업계 최고 GPU 시스템 및 NVIDIA HGX-2 시스템 기술을 확장해 새로운 NVIDIA HGX™ A100 4 GPU 보드(기존 코드명 Redstone)를 구현하는 2U 시스템과 5페타플롭의 AI 성능을 제공하는 새로운 NVIDIA HGX A100 8 GPU 보드(기존 코드명 Delta) 기반의 4U 시스템"을 소개하며, "GPU 가속 컴퓨팅이 진화하고 지속해서 데이터 센터를 혁신함에 따라, 슈퍼마이크로는 고객에게 최신 시스템 향상을 제공하고 GPU 활용을 최적화하면서 모든 규모에서 최대 가속을 달성할 수 있도록 지원한다"고 설명했다. 그는 "이 새로운 시스템은 HPC, 데이터 분석, 딥 러닝 학습 및 딥 러닝 추론을 위한 모든 가속화된 워크로드의 성능을 크게 향상시킨다"고 덧붙였다.

슈퍼마이크로의 새로운 2U 시스템은 HPC 및 AI 응용 프로그램을 위한 균형 잡힌 데이터 센터 플랫폼이다. 최대 성능을 위해 4개의 직접 연결 NVIDIA A100 텐서 코어 GPU가 장착된 NVIDIA HGX A100 4 GPU 보드 연결에 PCI-E 4.0을 사용하며, GPU-to-GPU 고속 연결에는NVIDIA NVLink™를 사용한다. 이 고급 GPU 시스템은 1개의 PCI-E 4.0 x8 및 최대 4개의 PCI-E 4.0 x16 확장 슬롯을 지원한다. 또한 초당 최대 200Gb 대역폭까지 지원하는 InfiniBand™ HDR™과 같이 GPUDirect RDMA와 호환되는 고속 네트워크 카드 및 스토리지를 지원해 컴퓨팅, 네트워킹 및 스토리지 성능을 향상시켜 준다.

NVIDIA의 총괄 이사 겸 가속화 컴퓨팅 담당 VP인 이안 벅(Ian Buck)은 "AI 모델이 정확한 대화형 AI, 딥 추천 시스템 및 개인화된 의약품과 같은 다음 단계의 과제에 도전함에 따라 폭발적으로 복잡해진다"며, "슈퍼마이크로는 NVIDIA HGX A100 플랫폼을 새로운 서버에 구현함으로써 연구자들이 가장 복잡한 AI 네트워크를 전례 없는 속도로 훈련시킬 수 있는 강력한 성능과 엄청난 확장성을 고객에게 제공한다"고 밝혔다.

AI 및 머신 러닝에 최적화된 슈퍼마이크로의 새로운 4U 시스템은 8개의 A100 텐서 코어 GPU를 지원한다. GPU가 8개인 4U 폼 팩터는 처리 요구 사항이 늘어나서 규모를 확장하려는 고객에게 적합하다. 새로운 4U 시스템은 초당 최대 600GB의 GPU-to-GPU 대역폭에 대응하는 NVIDIA NVSwitch™를 거쳐 8개의 A100 GPU가 모두 상호 연결되는 1개의 NVIDIA HGX A100 8 GPU 보드를 갖추고 있다. 또한 GPUDirect RDMA 고속 네트워크 카드용으로 8개의 확장 슬롯을 구비하고 있다. 이 시스템은 딥 러닝 학습에 이상적이므로, 데이터 센터 고객들은 이 스케일업 플랫폼을 이용해 차세대 AI를 개발 가능하며, 10개의 x16 확장 슬롯을 지원해 데이터 사이언티스트들의 생산성을 극대화할 수 있다.

고객은 슈퍼마이크로의 광범위한 1U, 2U, 4U, 10U 멀티-GPU 서버 포트폴리오에 새로운 NVIDIA A100 GPU 장착함으로써 상당한 성능 향상을 기대할 수 있다. 슈퍼마이크로의 새로운 A+ GPU 시스템은 PCI-E 스위치를 거치지 않고 CPU와 GPU를 PCI-E 4.0 x16 레인으로 직접 연결함으로써 지연 시간을 최소화하며, 최고 대역폭을 지원한다. 또한 최대 8개의 풀 하이트 더블 와이드(또는 싱글 와이드) GPU를 지원해 가속화 성능을 최대화한다. 이 시스템은 또한 최대 100G의 고성능 네트워킹 연결을 포함해 다양한 용도로 최대 3개의 고성능 PCI-E 4.0 확장 슬롯을 지원한다. 이 외에 추가되는 AIOM 슬롯은 슈퍼마이크로 AIOM 카드 또는 OCP 3.0 메자닌 카드를 지원한다.

AI 시스템 기술의 선두 주자인 슈퍼마이크로는 AI, 딥 러닝, HPC 애플리케이션에 최고의 성능과 안정성을 제공하기 위해 멀티 GPU에 최적화된 방열 설계를 제공한다. 슈퍼마이크로는 1U, 2U, 4U, 10U 랙마운트 GPU 시스템, Utra, BigTwin™, GPU 지원 임베디드 시스템, 8U SuperBlade(R) 용 GPU 블레이드 모듈을 비롯해 엣지에서 클라우드까지의 애플리케이션을 구동하는 업계에서 가장 광범위하고 깊이 있는 GPU 시스템 제품군을 제공한다.

슈퍼마이크로는 엣지에서 더 강화된 보안과 전례 없는 성능을 제공하기 위해 엣지 서버 포트폴리오에 새로운 EGX™ A100 구성을 추가할 계획이다. EGX A100 컨버지드 액셀러레이터는 Mellanox SmartNIC와 새로운 NVIDIA Ampere 아키텍처로 구동되는 GPU를 결합해 기업은 엣지에서 보다 안전하게 AI를 실행할 수 있다.

슈퍼마이크로 GPU시스템 제품에 대한 상세한 정보는 웹페이지(www.supermicro.com/A100)에서 확인할 수 있다.

슈퍼마이크로의 최신 뉴스와 공지 사항은 LinkedIn[https://www.linkedin.com/company/supermicro ], Twitter [https://twitter.com/Supermicro_SMCI ], Facebook[https://www.facebook.com/Supermicro ]를 통해 확인할 수 있다.

슈퍼마이크로 컴퓨터에 대하여

고성능, 고효율 서버 기술을 선도하는 혁신 기업인 슈퍼마이크로(R)는 전 세계 데이터센터, 클라우드 컴퓨팅, 기업용 IT, 하둡/빅데이터, HPC와 임베디드 시스템을 위한 업계 최고의 첨단 서버빌딩블록솔루션즈(Server Building Block Solutions(R)) 제공업체이다. 슈퍼마이크로는 자사의 "친환경 IT 추구(We Keep IT Green(R))" 이니셔티브를 바탕으로 환경 보호에 전념하며 업계에서 가장 에너지 효율적이고 환경친화적인 솔루션을 고객에게 제공하고 있다.

슈퍼마이크로(Supermicro), 슈퍼블레이드(SuperBlade), 빅트윈(BigTwin), 트윈프로(TwinPro), 서버빌딩블록솔루션즈(Server Building Block Solutions)와 친환경 IT추구(We Keep IT Green)는 슈퍼마이크로컴퓨터의 상표 또는 등록상표이다.

기타 모든 브랜드, 명칭 및 상표는 각 해당 소유주의 자산이다.

SMCI-F

비디오 - https://mma.prnewswire.com/media/1168093/RedStone_SuperMinute_100.mp4

출처: 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.)

Supermicro Expands Portfolio with Fully Integrated NVIDIA A100 GPU-Powered Systems Delivering 5 PetaFLOPS of AI Performance in a Single 4U Server

Supermicro Boosts Performance on Industry's Broadest Portfolio of GPU Servers Optimized for AI, Deep Learning, Data Science, and Compute Workloads with Full Support for the New NVIDIA A100 GPUs, Third Generation NVIDIA NVLink, and NVIDIA NVSwitch

SAN JOSE, California, May 14, 2020 /PRNewswire/ -- Super Micro Computer, Inc. (Nasdaq: SMCI), a global leader in enterprise computing, storage, networking solutions and green computing technology, today announced two new systems designed for artificial intelligence (AI) deep learning applications that fully leverage the third-generation NVIDIA HGX™ technology with the new NVIDIA A100™ Tensor Core GPUs as well as full support for the new NVIDIA A100 GPUs across the company's broad portfolio of 1U, 2U, 4U and 10U GPU servers. NVIDIA A100 is the first elastic, multi-instance GPU that unifies training, inference, HPC, and analytics.

"Expanding upon our industry-leading portfolio of GPU systems and NVIDIA HGX-2 system technology, Supermicro is introducing a new 2U system implementing the new NVIDIA HGX™ A100 4 GPU board (formerly codenamed Redstone) and a new 4U system based on the new NVIDIA HGX A100 8 GPU board (formerly codenamed Delta) delivering 5 PetaFLOPS of AI performance," said Charles Liang, CEO and president of Supermicro. "As GPU accelerated computing evolves and continues to transform data centers, Supermicro will provide customers the very latest system advancements to help them achieve maximum acceleration at every scale while optimizing GPU utilization. These new systems will significantly boost performance on all accelerated workloads for HPC, data analytics, deep learning training and deep learning inference."

As a balanced data center platform for HPC and AI applications, Supermicro's new 2U system leverages the NVIDIA HGX A100 4 GPU board with four direct-attached NVIDIA A100 Tensor Core GPUs using PCI-E 4.0 for maximum performance and NVIDIA NVLink™ for high-speed GPU-to-GPU interconnects. This advanced GPU system accelerates compute, networking and storage performance with support for one PCI-E 4.0 x8 and up to four PCI-E 4.0 x16 expansion slots for GPUDirect RDMA high-speed network cards and storage such as InfiniBand™ HDR™, which supports up to 200Gb per second bandwidth.

"AI models are exploding in complexity as they take on next-level challenges such as accurate conversational AI, deep recommender systems and personalized medicine," said Ian Buck, general manager and VP of accelerated computing at NVIDIA. "By implementing the NVIDIA HGX A100 platform into their new servers, Supermicro provides customers the powerful performance and massive scalability that enable researchers to train the most complex AI networks at unprecedented speed."

Optimized for AI and machine learning, Supermicro's new 4U system supports eight A100 Tensor Core GPUs. The 4U form factor with eight GPUs is ideal for customers that want to scale their deployment as their processing requirements expand. The new 4U system will have one NVIDIA HGX A100 8 GPU board with eight A100 GPUs all-to-all connected with NVIDIA NVSwitch™ for up to 600GB per second GPU-to-GPU bandwidth and eight expansion slots for GPUDirect RDMA high-speed network cards. Ideal for deep learning training, data centers can use this scale-up platform to create next-gen AI and maximize data scientists' productivity with support for ten x16 expansion slots.

Customers can expect a significant performance boost across Supermicro's extensive portfolio of 1U, 2U, 4U and 10U multi-GPU servers when they are equipped with the new NVIDIA A100 GPUs. For maximum acceleration, Supermicro's new A+ GPU system supports up to eight full-height double-wide (or single-wide) GPUs via direct-attach PCI-E 4.0 x16 CPU-to-GPU lanes without any PCI-E switch for the lowest latency and highest bandwidth. The system also supports up to three additional high-performance PCI-E 4.0 expansion slots for a variety of uses, including high-performance networking connectivity up to 100G. An additional AIOM slot supports a Supermicro AIOM card or an OCP 3.0 mezzanine card.

As the leader in AI system technology, Supermicro offers multi-GPU optimized thermal designs that provide the highest performance and reliability for AI, Deep Learning, and HPC applications. With 1U, 2U, 4U, and 10U rackmount GPU systems; Utra, BigTwin™, and embedded systems supporting GPUs; as well as GPU blade modules for our 8U SuperBlade(R) , Supermicro offers the industry's widest and deepest selection of GPU systems to power applications from Edge to Cloud.

To deliver enhanced security and unprecedented performance at the edge, Supermicro plans to add the new NVIDIA EGX™ A100 configuration to its edge server portfolio. The EGX A100 converged accelerator combines an NVIDIA Mellanox SmartNIC with GPUs powered by the new NVIDIA Ampere architecture, so enterprises can run AI at the edge more securely.

For more on Supermicro's new GPU systems, please visit www.supermicro.com/A100.

Follow Supermicro on LinkedIn [https://www.linkedin.com/company/supermicro/ ], Twitter [https://twitter.com/Supermicro_SMCI ], and Facebook [https://www.facebook.com/Supermicro ] to receive their latest news and announcements.

About Super Micro Computer, Inc.

Supermicro (Nasdaq: SMCI), the leading innovator in high-performance, high-efficiency server technology, is a premier provider of advanced Server Building Block Solutions(R) for Data Center, Cloud Computing, Enterprise IT, Hadoop/Big Data, HPC and Embedded Systems worldwide. Supermicro is committed to protecting the environment through its "We Keep IT Green(R)" initiative and provides customers with the most energy-efficient, environmentally-friendly solutions available on the market.

Supermicro, Server Building Block Solutions, BigTwin, SuperBlade, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.

All other brands, names and trademarks are the property of their respective owners.

SMCI-F

Video - https://mma.prnewswire.com/media/1168093/RedStone_SuperMinute_100.mp4

Source: Super Micro Computer, Inc.

[편집자 주] 본고는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았음을 밝혀 드립니다.

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>