[PRNewswire] 슈퍼마이크로, AI 추론 최적화 신제품 GPU 서버 발표
-- 4U 내에 20개까지의 엔비디아 테슬라 T4 액셀러레이터 탑재
-- 추론 최적화 시스템을 통해 GPU 서버로 구성된 슈퍼마이크로의 업계 최고 포트폴리오를 확대함으로써 싱글 루트, 듀얼 루트, 스케일업과 스케일아웃 설계 포함 추론, 학습과 딥러닝을 위한 최고의 선택 가능 AI 솔루션들을 고객들에게 공급
(새너제이, 캘리포니아주 2018년 9월 20일 PRNewswire=연합뉴스) 기업용 컴퓨팅, 스토리지, 네트워킹 솔루션과 그린 컴퓨팅 기술 분야 글로벌 리더 슈퍼마이크로컴퓨터[Super Micro Computer, Inc. (나스닥: SMCI)]는 동사의 다양한 GPU 최적화 서버 라인에 추가되는 최신 제품을 오늘 발표한다.
인공 지능(AI)은 기업이 현재와 예측 가능한 미래에 성공을 거두기 위해 가장 중요한 부분품 중 하나로 급속하게 대두되고 있다. 오늘, 기업들의 AI 기반 제품과 서비스를 가속하고 비용 효과적으로 확장할 수 있는 강력한 컴퓨팅 플랫폼 도입 필요성이 기업들의 성공을 위해 필수적인 것이 되었다.
슈퍼마이크로의 새로운 슈퍼서버(SuperServer) 6049GP-TRT는 현대적인 AI의 다양한 애플리케이션 가속에 필요한 최고 성능을 구현한다. 본 4U 서버는 최고의 GPU 집적도와 성능 구현을 위해 20개까지의 엔비디아(R) 테슬라(R) T4 텐서 코어 GPU, 3 테라바이트급 메모리와 24개의 핫스왑 3.5" 드라이브를 지원한다. 본 시스템은 또한 2천 와트 티타늄 급 효율의 (2+2) 이중화된 전원 공급 장치 네 개를 통해 전력 효율, 가동 시간과 사용성을 최적화한다.
찰스 량 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 5G, 스마트시티와 IOT 기기와 같은 기술로 견인되고 엄청난 양의 데이터를 생성하며 실시간의 의사 결정이 필요한 시장으로서 급속하게 부상하고 있는 하이 스루풋 추론 시장에 대처하기 위해 혁신 중"이라면서 "우리는 엔비디아 텐서RT와 새로운 튜링 아키텍처 기반 T4 GPU 액셀러레이터의 결합이 이 새롭고 어려우며 레이턴시에 민감한 작업을 수행하는 데 이상적인 결합으로 보고 있기 때문에 이들을 당사 GPU 시스템 제품 라인에서 공격적으로 활용하고 있다"고 말했다.
엔비디아의 부사장 겸 가속 컴퓨팅 담당 제네럴매니저인 이안 버크는 "기업 고객들은 엔비디아 테슬라 T4 GPU에 최적화된 슈퍼마이크로의 새로운 고집적 서버를 통해 스루풋과 전력 효율을 극적으로 제고함으로써 혜택을 볼 수 있다"면서 "데이터센터 작업 중에서 차지하는 AI 추론의 비중이 점점 더 커지는 상황에서 이 테슬라 T4 GPU 플랫폼들은 가장 효율적인 실시간 및 배치 추론을 구현한다"고 말했다.
슈퍼마이크로의 성능 최적화된 4U 슈퍼서버 6049GP-TRT 시스템은 20개까지의 PCI-E 엔비디아 테슬라 T4 GPU 액셀러레이터를 지원할 수 있으며 이를 통해 딥러닝, 추론 애플리케이션을 지원하면서 데이터센터에 폭넓게 설치할 수 있도록 GPU 서버 플랫폼의 집적도를 극적으로 늘린다. 더욱 많은 산업이 인공 지능을 도입하고 있는 가운데 추론에 최적화된 고집적 서버를 찾게 될 것이다. 6049GP-TRT는 딥러닝, 신경망의 학습에서부터 인공 지능을 안면 인식과 번역과 같은 실생활 애플리케이션에 적용하는 것까지의 변화 과정을 이끄는 최적의 플랫폼이다.
슈퍼마이크로는 어떠한 스케일아웃 서버 내에서도 추론 작업을 가속하도록 설계된 극고 효율의 테슬라 T4를 지원하는 4U GPU 시스템 전 제품군을 보유하고 있다. 테슬라 T4 내의 하드웨어 가속 트랜스코드 엔진은 다수의 HD 동영상 스트림을 실시간으로 제공하며 딥러닝을 동영상 트랜스코딩 파이프라인에 통합함으로써 새로운 종류의 스마트 동영상 애플리케이션들이 가능해졌다. 딥러닝이 과거의 어떤 컴퓨팅 모델과도 다른 세상을 만들어 가고 있는 가운데 더 심화되고 더 복잡한 신경망은 엄청나게 많은 양의 데이터상에서 학습하고 있다. 이들 모델은 응답성을 달성하기 위해 슈퍼마이크로의 강력한 GPU 서버에 탑재되어 추론 작업을 위한 최대의 스루풋을 제공한다.
슈퍼마이크로 엔비디아 GPU 시스템 제품 라인에 대한 종합적인 정보가 필요할 경우 https://www.supermicro.com/products/nfo/gpu.cfm을 방문하기 바란다.
슈퍼마이크로의 최신 뉴스와 발표 내용을 받아 보려면 페이스북[https://www.facebook.com/Supermicro ]과 트위터[https://twitter.com/Supermicro_SMCI ]에서 Supermicro를 팔로우하기 바란다.
슈퍼마이크로컴퓨터(나스닥: SMCI)
고성능, 고효율 서버 기술의 혁신적인 리딩 기업인 슈퍼마이크로(R) (나스닥: SMCI)는 전 세계의 데이터센터, 클라우드 컴퓨팅, 기업용 IT, 하둡/빅데이터, HPC와 임베디드 시스템을 위한 첨단 서버빌딩블록솔루션즈(Server Building Block Solutions(R))의 최고 공급 업체이다. 슈퍼마이크로는 동사의 "우리는 그린 IT를 지킨다(We Keep IT Green(R))"라는 운동을 통해 환경보호에 공헌하고 있으며 최고로 에너지 효율적이며 친환경적인 솔루션을 고객들에게 시장에서 공급하고 있다.
Supermicro, SuperServer, Server Building Block Solutions와 We Keep IT Green은 슈퍼마이크로컴퓨터의 상표 및/혹은 등록상표이다.
기타 모든 브랜드, 명칭과 상표는 그들 각각 소유자의 재산이다.
미디어 연락처
Michael Kalodrich
슈퍼마이크로컴퓨터
michaelkalodrich@supermicro.com
SMCI-F
사진 - https://mma.prnewswire.com/media/746488/Supermicro_Server.jpg
High-Density Supermicro GPU Server Optimized for AI Inference
출처: 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.)
Supermicro Introduces AI Inference-optimized New GPU Server with up to 20 NVIDIA Tesla T4 Accelerators in 4U
-- Inference-optimized system extends Supermicro's leading portfolio of GPU Servers to offer customers an unparalleled selection of AI solutions for Inference, Training, and Deep Learning including Singe-Root, Dual-Root, Scale-up and Scale Out designs
SAN JOSE, California, Sept. 20, 2018 /PRNewswire/ -- Super Micro Computer, Inc. (NASDAQ: SMCI), a global leader in enterprise computing, storage, networking solutions and green computing technology, today is introducing the latest additions to its extensive line of GPU-optimized servers.
Artificial intelligence (AI) is quickly becoming one of the most crucial components to business success now and in the foreseeable future. Today, the necessity of deploying powerful computing platforms that can accelerate and cost-effectively scale their AI-based products and services has become vital for successful enterprises.
Supermicro's new SuperServer 6049GP-TRT provides the superior performance required to accelerate the diverse applications of modern AI. For maximum GPU density and performance, this 4U server supports up to 20 NVIDIA(R) Tesla(R) T4 Tensor Core GPUs, three terabytes of memory, and 24 hot-swappable 3.5" drives. This system also features four 2000-watt Titanium level efficiency (2+2) redundant power supplies to help optimize the power efficiency, uptime and serviceability.
"Supermicro is innovating to address the rapidly emerging high-throughput inference market driven by technologies such as 5G, Smart Cities and IOT devices, which are generating huge amounts of data and require real-time decision making," said Charles Liang, president and CEO of Supermicro. "We see the combination of NVIDIA TensorRT and the new Turing architecture based T4 GPU Accelerator as the ideal combination for these new demanding and latency-sensitive workloads and are aggressively leveraging them in our GPU system product line."
"Enterprise customers will benefit from a dramatic boost in throughput and power efficiency from the NVIDIA Tesla T4 GPUs in Supermicro's new high-density servers," said Ian Buck, vice president and general manager of Accelerated Computing at NVIDIA. "With AI inference constituting an increasingly large portion of data center workloads, these Tesla T4 GPU platforms provide incredibly efficient real-time and batch inference."
Supermicro's performance-optimized 4U SuperServer 6049GP-TRT system can support up to 20 PCI-E NVIDIA Tesla T4 GPU accelerators, which dramatically increases the density of GPU server platforms for wide data center deployment supporting deep learning, inference applications. As more and more industries deploy artificial intelligence, they will be looking for high density servers optimized for inference. The 6049GP-TRT is the optimal platform to lead the transition from training deep learning, neural networks to deploying artificial intelligence into real world applications such as facial recognition and language translation.
Supermicro has an entire family of 4U GPU systems that support the ultra-efficient Tesla T4, which is designed to accelerate inference workloads in any scale-out server. The hardware accelerated transcode engine in Tesla T4 delivers multiple HD video streams in real-time and allows integrating deep learning into the video transcoding pipeline to enable a new class of smart video applications. As deep learning shapes our world like no other computing model in history, deeper and more complex neural networks are trained on exponentially larger volumes of data. To achieve responsiveness, these models are deployed on powerful Supermicro GPU servers to deliver maximum throughput for inference workloads.
For comprehensive information on Supermicro NVIDIA GPU system product lines, please go to https://www.supermicro.com/products/nfo/gpu.cfm.
Follow Supermicro on Facebook [https://www.facebook.com/Supermicro ] and Twitter [http://twitter.com/Supermicro_SMCI ] to receive their latest news and announcements.
About Super Micro Computer, Inc. (NASDAQ: SMCI)
Supermicro(R) (NASDAQ: SMCI), the leading innovator in high-performance, high-efficiency server technology is a premier provider of advanced Server Building Block Solutions(R) for Data Center, Cloud Computing, Enterprise IT, Hadoop/Big Data, HPC and Embedded Systems worldwide. Supermicro is committed to protecting the environment through its "We Keep IT Green(R)" initiative and provides customers with the most energy-efficient, environmentally-friendly solutions available on the market.
Supermicro, SuperServer, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.
All other brands, names and trademarks are the property of their respective owners.
SMCI-F
Photo - https://mma.prnewswire.com/media/746488/Supermicro_Server.jpg
High-Density Supermicro GPU Server Optimized for AI Inference
Source: Super Micro Computer, Inc.
[편집자 주] 본고는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았음을 밝혀 드립니다.
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>