본문 바로가기
주식/종목 풀이

NVIDIA의 미래를 열어가는 혁신 기술, GH200 Grace Hopper 슈퍼칩 플랫폼 등장!

by Classic Master 2023. 8. 9.
728x90
반응형

GH200 Grace Hopper

 

 

NVIDIA는 가속 컴퓨팅과 생성적 AI 분야에서 압도적인 혁신을 선보이며 경쟁에 도전합니다.

8월 8일, 미국 로스앤젤레스에서 개최된 컴퓨터 그래픽스 콘퍼런스 SIGGRAPH에서 NVIDIA는 미래를 열어갈 새로운 혁신, GH200 Grace Hopper 슈퍼칩 플랫폼을 선보였습니다. 이 플랫폼은 새로운 Grace Hopper Superchip과 세계 최초로 탑재한 HBM3e 프로세서를 바탕으로 제작되었습니다.

이 기술은 가속 컴퓨팅과 생성적 AI 분야에서 새로운 지평을 열어갑니다.

GH200 Grace Hopper 플랫폼은 복잡한 생성적 AI 작업을 다루기 위해 만들어진 것으로, 대규모 언어 모델, 추천 시스템 및 벡터 데이터베이스와 같은 고난도 작업을 수행할 수 있습니다. 이 플랫폼은 다양한 구성으로 제공되며, 탁월한 성능을 위해 최대한의 기능을 제공합니다.

이 듀얼 구성은 최대 3.5배 더 많은 메모리 용량과 3배 더 많은 대역폭을 제공하고 있으며,

144개의 Arm Neoverse 코어와 8 페타플롭의 AI 성능, 그리고 282GB의 최신 HBM3e 메모리 기술로 구성되어 있습니다. 

이는 생성적 AI 작업을 위한 새로운 차원을 제공합니다.

NVIDIA의 CEO인 젠슨 황은 "생성적 AI에 대한 급증하는 수요를 충족시키기 위해서는 특수한 가속 컴퓨팅 플랫폼이 필요합니다"라고 말하였으며, 이번 GH200 Grace Hopper 플랫폼이 이를 실현시켜 줄 것이라고 강조했습니다. 이 플랫폼은 고성능 메모리 기술과 대역폭을 결합하여 뛰어난 데이터 처리량을 제공하고, 또 GPU를 연결하여 성능을 높일 수 있게 설계되었으며, 데이터 센터 전반에 걸쳐 손쉽게 배포할 수 있는 서버 디자인을 제공합니다.

GH200 Grace Hopper 슈퍼칩 플랫폼은 Grace Hopper Superchip을 활용하며, NVIDIA NVLink™를 통해 여러 개의 Superchip을 연결하여 대규모 생성적 AI 모델을 배포할 수 있습니다. 이로써 GPU는 CPU 메모리에 완벽하게 접근할 수 있으며 듀얼 구성 시 1.2TB의 더 빠른 메모리를 제공합니다.

또한 HBM3e 메모리는 현재의 HBM3보다 50% 더 빠른 성능을 제공하며 총 10TB/초의 대역폭을 제공하고 있습니다. 이는 이전 버전과 비교해 3.5배 더 큰 모델을 실행하고 3배 더 빠른 메모리 대역폭으로 성능을 향상시킬 수 있음을 의미합니다.

미래 지향적인 NVIDIA는 이미 주요 제조업체에서 Grace Hopper Superchip을 사용한 시스템을 제공하고 있으며, 더욱 넓은 적용을 위해 HBM3e를 탑재한 차세대 Grace Hopper 플랫폼은 NVIDIA MGX™ 서버 사양과 완벽하게 호환됩니다. 이를 통해 시스템 제조업체들은 Grace Hopper를 100여 가지 이상의 서버 변형에 빠르고 효율적으로 추가할 수 있습니다.

GH200 Grace Hopper 슈퍼칩 플랫폼은 2024년 달력 연도 2분기에 주요 시스템 제조업체들을 통해 시스템을 제공할 예정입니다. 이번 NVIDIA의 혁신적인 발표는 생성적 AI와 가속 컴퓨팅 분야에서의 미래를 개척하며 기술 혁신의 선두주자임을 다시 한 번 입증하고 있습니다.

 

728x90

 

 

 

728x90
반응형