코스피

2,649.78

  • 21.79
  • 0.82%
코스닥

774.49

  • 4.69
  • 0.6%
1/4

[PRNewswire] 슈퍼마이크로, 업계 최초의 스케일업 AI와 머신러닝 시스템 선보여

페이스북 노출 0

핀(구독)!


뉴스 듣기-

지금 보시는 뉴스를 읽어드립니다.

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

[PRNewswire] 슈퍼마이크로, 업계 최초의 스케일업 AI와 머신러닝 시스템 선보여

주요 기사

글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
[PRNewswire] 슈퍼마이크로, 업계 최초의 스케일업 AI와 머신러닝 시스템 선보여

-- 최고의 성능과 집적도를 구현하기 위해 최신 세대 CPU와 NV링크 GPU가 탑재된 엔비디아 테슬라 V100 기반으로 개발
-- 슈퍼마이크로는 GPU 최적화된 업계 최고의 포트폴리오를 확대함으로써 딥러닝, AI와 빅데이터 분석 애플리케이션 분야에서 10배 커진 시장의 요구 사항에 대처

(타이베이, 대만 2018년 5월 30일 PRNewswire=연합뉴스) 기업용 컴퓨팅, 스토리지, 네트워킹 솔루션과 그린 컴퓨팅 기술 분야의 글로벌 리더 슈퍼마이크로컴퓨터[Super Micro Computer, Inc. (나스닥: SMCI)]는 5월 30~31일 타이베이 메리어트호텔에서 열리는 2018년 타이완 GPU 기술 콘퍼런스(GTC)에 마련된 동사 플래티넘 스폰서 부스에서 엔비디아(NVIDIA(R)) 테슬라(Tesla(R)) V100 PCI-E와 V100 SXM2 텐서 코어 GPU 액셀러레이터를 지원하며 업계에서 가장 다양한 GPU 서버 플랫폼들을 쇼케이스한다고 오늘 발표했다.

인공지능(AI), 딥러닝, 자율주행 차량, 스마트시티, 헬스케어, 빅데이터, 고성능 컴퓨팅(HPC), 가상현실 등과 같은 고도 병렬 애플리케이션의 속도를 최대로 하기 위해 차세대 엔비디아 NV링크(NVLink™) 인터커넥트 기술을 적용한 슈퍼마이크로의 새로운 4U 시스템은 최대 성능에 최적화되어 있다. 엔비디아 HGX-T1급의 GPU 가속 서버 플랫폼의 한 부분인 슈퍼서버(SuperServer) 4029GP-TVRT는 클러스터와 하이퍼스케일 애플리케이션에 사용하기 위해 최대의 GPU-투-GPU 대역폭을 갖춘 엔비디아 테슬라 V100 32GB SXM2 GPU 액셀러레이터 여덟 개를 지원한다. PCI-E 3.0 대역폭의 다섯 배 이상을 지원하는 최신 엔비디아 NV링크 기술을 채용한 본 시스템은 가장 어려운 작업을 최고의 성능과 안정성을 통해 처리할 수 있도록 독립적인 GPU와 CPU 서멀 존을 갖추고 있다.

찰스 량 슈퍼마이크로 사장 겸 CEO는 "당사 4029GP-TVRT 시스템은 내부적으로 진행한 첫 벤치마크 테스트 중 ResNet-50에서 초당 5,188개의 이미지와 인셉션 V3 작업에서 초당 3,709개의 이미지를 처리할 수 있었다"면서 "우리는 또한 GPU 다이렉트 RDMA를 사용하여 복수의 시스템들로 스케일업할 경우 그 성능이 엄청나게 거의 직선으로 증가한다는 것을 알게 되었다. 우리 고객들은 새로운 엔비디아 V100 32GB PCI-E와 V100 32GB SXM2 GPU에 차세대 NV링크를 탑재한 최적화 성능의 1U 및 4U 시스템에서 2배의 메모리 용량을 결합한 당사의 최근 혁신 제품을 통해 자신들의 애플리케이션과 혁신의 속도를 빠르게 함으로써 전 세계에서 가장 복잡하고 어려운 문제들을 해결할 수 있게 되었다"라고 말했다.

엔비디아 부사장 겸 가속컴퓨팅 담당 제네럴매니저 이언 버크는 "기업 고객들은 엔비디아 테슬라 V100 32GB 텐서 코어 GPU에 최적화되었으며 새로운 수준의 컴퓨팅 효율을 구현하는 슈퍼마이크로의 고집적 서버들을 활용할 수 있게 되었다"면서 "V100을 탑재한 2배 용량의 메모리를 통해 복잡한 딥러닝과 과학 애플리케이션에서 최대 50% 더 빠르게 결과를 도출하고 메모리 최적화의 필요성을 줄임으로써 개발자의 생산성을 향상시킬 수 있다"고 말했다.

슈퍼마이크로 GPU 시스템은 또한 스케일아웃 서버의 추론 작업 속도를 높이기 위해 설계되었으며 효율성이 극도로 높은 테슬라 P4를 지원한다. 테슬라 P4 내의 하드웨어 가속 트랜스코드 엔진을 통해 35 HD 동영상 스트림을 실시간으로 공급하며 딥러닝을 동영상 트랜스코드 파이프라인에 통합함으로써 새로운 클래스의 스마트 동영상 애플리케이션 개발이 가능하다. 딥러닝을 통해 역사상 초유의 컴퓨팅 모델 세계가 만들어지듯이 더 깊고 더 복잡한 신경망은 기하급수적으로 커지는 대량 데이터를 기반으로 훈련되고 있다. 이 모델들은 대응 능력을 확보하기 위해 강력한 슈퍼마이크로 GPU 서버상에 설치되어 추론 작업에 최대 스루풋을 구현한다.

슈퍼마이크로는 그 외에도 엔비디아 SCX-E3급의 GPU 가속 서버 플랫폼을 전시 중인데 이 플랫폼은 슈퍼마이크로의 혁신적이며 GPU 최적화된 싱글 루트 복합 PCI-E 설계의 PCI-E 엔비디아 테슬라 V100 액셀러레이터를 열 개까지 지원할 수 있는 성능 최적화된 4U 슈퍼서버 4029GR-TRT2 시스템으로 이를 통해 GPU 피어투피어 통신 성능이 극적으로 향상된다. 훨씬 더 큰 집적도 확보를 위해 슈퍼서버 1029GQ-TRT는 단 하나의 1U 랙 공간 내에 엔비디아 테슬라 V100 PCI-E GPU 액셀러레이터를 네 개까지 지원하며 새로운 슈퍼서버 1029GQ-TVRT는 1U 내에 엔비디아 테슬라 V100 SXM2 32GB GPU 액셀러레이터 네 개를 지원한다. 이 1029GQ 서버 둘 다 엔비디아 SCX-E2급의 GPU 가속 서버 플랫폼의 부분이다.

빅데이터 분석과 머신러닝이 융합됨에 따라 최신 엔비디아 GPU 이키텍처와 향상된 머신러닝 알고리즘, 딥러닝 애플리케이션에는 GPU 네트워크를 확장하기 위해 효율적이고 효과적으로 통신하여야만 하는 복수의 GPU를 구동할 수 있는 힘이 필요하다. 슈퍼마이크로의 싱글 루트 GPU 시스템은 복수의 엔비디아 GPU가 효율적으로 통신케 함으로써 NCCL P2P대역폭 테스트에서 측정된 바와 같이 레이턴시를 최저로 하고 스루풋을 최대로 할 수 있다.

슈퍼마이크로 엔비디아 GPU 시스템 제품 라인에 관한 종합적인 자료가 필요할 경우 https://www.supermicro.com/products/nfo/gpu.cfm을 참조하기 바란다.

슈퍼마이크로의 최신 뉴스와 발표 내용을 받아 보려면 페이스북[https://www.facebook.com/Supermicro ]과 트위터[https://twitter.com/Supermicro_SMCI ]에서 Supermicro를 팔로우하기 바란다.

슈퍼마이크로컴퓨터(나스닥: SMCI)
고성능, 고효율 서버 기술의 혁신적인 리딩 기업인 슈퍼마이크로(R)(나스닥: SMCI)는 전 세계의 데이터센터, 클라우드 컴퓨팅, 기업용 IT, 하둡/빅데이터, HPC와 임베디드 시스템을 위한 첨단 서버빌딩블록솔루션즈(Server Building Block Solutions(R))의 최고 공급 업체이다. 슈퍼마이크로는 동사의 "우리는 그린 IT를 지킨다(We Keep IT Green(R))"라는 운동을 통해 환경보호에 공헌하고 있으며 최고로 에너지 효율적이며 친환경적인 솔루션을 고객들에게 시장에서 공급하고 있다.

Supermicro, SuperServer, Server Building Block Solutions와 We Keep IT Green은 슈퍼마이크로컴퓨터의 상표 및/혹은 등록상표이다.

기타 모든 브랜드, 명칭과 상표는 그들 각각 소유자의 재산이다.

SMCI-F

사진 - https://mma.prnewswire.com/media/697266/Super_Micro_Computer_Inc___Supermicro_first_with_GPU_Systems_based_on_Latest_Gen_CPUs.jpg
Supermicro first with GPU Systems based on Latest Gen CPUs

출처: 슈퍼마이크로컴퓨터 Super Micro Computer, Inc.



Supermicro Shows Industry's First Scale-Up AI and Machine Learning Systems based on the Latest Generation CPUs and NVIDIA Tesla V100 with NVLink GPUs for Superior Performance and Density

-- Supermicro expands industry-leading GPU-optimized system portfolio to address the market demand for 10x growth in deep learning, AI, and big data analytic applications

TAIPEI, Taiwan, May 30, 2018 /PRNewswire/ -- Super Micro Computer, Inc. (NASDAQ: SMCI), a global leader in enterprise computing, storage, networking solutions and green computing technology, today announced that it is showcasing the industry's broadest selection of GPU server platforms that support NVIDIA(R) Tesla(R) V100 PCI-E and V100 SXM2 Tensor Core GPU accelerators in its Platinum Sponsor Booth at the GPU Technology Conference (GTC) Taiwan 2018, Taipei Marriott Hotel on May 30-31.

For maximum acceleration of highly parallel applications like artificial intelligence (AI), deep learning, self-driving cars, smart cities, health care, big data, high performance computing (HPC), virtual reality and more, Supermicro's new 4U system with next-generation NVIDIA NVLink™ interconnect technology is optimized for maximum performance. SuperServer 4029GP-TVRT, a part of the NVIDIA HGX-T1 class of GPU-Accelerated Server Platforms, supports eight NVIDIA Tesla V100 32GB SXM2 GPU accelerators with maximum GPU-to-GPU bandwidth for cluster and hyper-scale applications. Incorporating the latest NVIDIA NVLink technology with over five times the bandwidth of PCI-E 3.0, this system features independent GPU and CPU thermal zones to ensure uncompromised performance and stability under the most demanding workloads.

"On initial internal benchmark tests, our 4029GP-TVRT system was able to achieve 5,188 images per second on ResNet-50 and 3,709 images per second on InceptionV3 workloads," said Charles Liang, President and CEO of Supermicro. "We also see very impressive, almost linear performance increases when scaling to multiple systems using GPU Direct RDMA. With our latest innovations incorporating the new NVIDIA V100 32GB PCI-E and V100 32GB SXM2 GPUs with 2X memory in performance-optimized 1U and 4U systems with next-generation NVLink, our customers can accelerate their applications and innovations to help solve the world's most complex and challenging problems."

"Enterprise customers will benefit from a new level of computing efficiency with Supermicro's high-density servers optimized for NVIDIA Tesla V100 32GB Tensor Core GPUs," said Ian Buck, vice president and general manager of accelerated computing at NVIDIA. "Twice the memory with V100 drives up to 50 percent faster results on complex deep learning and scientific applications and improves developer productivity by reducing the need to optimize for memory."

Supermicro GPU systems also support the ultra-efficient Tesla P4 that is designed to accelerate inference workloads in any scale-out server. The hardware accelerated transcode engine in Tesla P4 delivers 35 HD video streams in real-time and allows integrating deep learning into the video transcoding pipeline to enable a new class of smart video applications. As deep learning shapes our world like no other computing model in history, deeper and more complex neural networks are trained on exponentially larger volumes of data. To achieve responsiveness, these models are deployed on powerful Supermicro GPU servers to deliver maximum throughput for inference workloads.

Supermicro is further demonstrating the NVIDIA SCX-E3 class of GPU-Accelerated Server Platforms, the performance-optimized 4U SuperServer 4029GR-TRT2 system that can support up to 10 PCI-E NVIDIA Tesla V100 accelerators with Supermicro's innovative and GPU-optimized single-root complex PCI-E design, which dramatically improves GPU peer-to-peer communication performance. For even greater density, the SuperServer 1029GQ-TRT supports up to four NVIDIA Tesla V100 PCI-E GPU accelerators in only 1U of rack space and the new SuperServer 1029GQ-TVRT supports four NVIDIA Tesla V100 SXM2 32GB GPU accelerators in 1U. Both of the 1029GQ servers are part of the NVIDIA SCX-E2 class of GPU-Accelerated Server Platforms.

With the convergence of big data analytics and machine learning, the latest NVIDIA GPU architectures, and improved machine learning algorithms, deep learning applications require the processing power of multiple GPUs that must communicate efficiently and effectively to expand the GPU network. Supermicro's single-root GPU system allows multiple NVIDIA GPUs to communicate efficiently to minimize latency and maximize throughput as measured by the NCCL P2PBandwidthTest.

For comprehensive information on Supermicro NVIDIA GPU system product lines, please go to https://www.supermicro.com/products/nfo/gpu.cfm.

Follow Supermicro on Facebook [https://www.facebook.com/Supermicro ] and Twitter [http://twitter.com/Supermicro_SMCI ] to receive the latest news and announcements.

About Super Micro Computer, Inc. (NASDAQ: SMCI)
Supermicro(R) (NASDAQ: SMCI), the leading innovator in high-performance, high-efficiency server technology is a premier provider of advanced Server Building Block Solutions(R) for Data Center, Cloud Computing, Enterprise IT, Hadoop/Big Data, HPC and Embedded Systems worldwide. Supermicro is committed to protecting the environment through its "We Keep IT Green(R)" initiative and provides customers with the most energy-efficient, environmentally-friendly solutions available on the market.

Supermicro, SuperServer, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.

All other brands, names and trademarks are the property of their respective owners.

SMCI-F

Photo - https://mma.prnewswire.com/media/697266/Super_Micro_Computer_Inc___Supermicro_first_with_GPU_Systems_based_on_Latest_Gen_CPUs.jpg
Supermicro first with GPU Systems based on Latest Gen CPUs

Source: Super Micro Computer, Inc.

[편집자 주] 본고는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았음을 밝혀 드립니다.
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

실시간 관련뉴스