메인 콘텐츠로 건너뛰기
AMZN logo
AMZNNASDAQ긍정AI/기술

AWS와 NVIDIA, 생성형 AI 혁신 가속화를 위한 협력 확대

Amazon
중요도

AI 요약

AWS와 NVIDIA의 협력이 강화되며 차세대 Blackwell GPU 플랫폼이 AWS에 도입됩니다.

이는 멀티-트릴리언 파라미터 LLM 구축 및 추론 성능을 가속화하여 NVDA의 AI 인프라 시장 지배력을 더욱 확대할 것으로 기대됩니다.

특히, AWS Nitro 시스템과의 통합으로 강력한 보안을 제공하며, NVIDIA 자체 AI 연구를 위한 슈퍼컴퓨터 Project Ceiba에 20,736개의 GB200 Superchips가 탑재될 예정입니다.

핵심 포인트

  • AWS와 NVIDIA의 협력이 강화되며 차세대 Blackwell GPU 플랫폼이 AWS에 도입됩니다.
  • 이는 멀티-트릴리언 파라미터 LLM 구축 및 추론 성능을 가속화하여 NVDA의 AI 인프라 시장 지배력을 더욱 확대할 것으로 기대됩니다.
  • 특히, AWS Nitro 시스템과의 통합으로 강력한 보안을 제공하며, NVIDIA 자체 AI 연구를 위한 슈퍼컴퓨터 Project Ceiba에 20,736개의 GB200 Superchips가 탑재될 예정입니다.

긍정 / 부정 요인

긍정 요인

  • AWS와의 협력 강화 및 Blackwell GPU 플랫폼 도입
  • 멀티-트릴리언 파라미터 LLM 구축 및 추론 성능 가속화
  • AWS Nitro 시스템과의 통합을 통한 보안 강화
  • NVIDIA 자체 AI 연구용 슈퍼컴퓨터에 대규모 GB200 Superchips 탑재

기사 전문

AWS, NVIDIA Blackwell GPU 기반 Amazon EC2 인스턴스 및 DGX Cloud 출시 Amazon Web Services (AWS)가 NVIDIA와 협력하여 차세대 NVIDIA Blackwell GPU 플랫폼을 AWS 클라우드에 도입한다고 발표했습니다. 이번 협력은 NVIDIA의 GB200 Grace Blackwell Superchip과 B100 Tensor Core GPU를 AWS에서 제공함으로써, 고객들이 생성형 AI의 새로운 가능성을 열 수 있도록 지원하는 데 초점을 맞추고 있습니다. AWS와 NVIDIA는 이번 협력을 통해 13년 이상 이어온 전략적 파트너십을 더욱 강화했습니다. 양사는 최첨단 인프라, 소프트웨어 및 서비스를 통합하여 고객들에게 가장 안전하고 진보된 AI 환경을 제공할 계획입니다. 특히, NVIDIA의 차세대 Blackwell 플랫폼과 AI 소프트웨어, AWS의 Nitro System 및 AWS Key Management Service (AWS KMS)의 강력한 보안 기능, Elastic Fabric Adapter (EFA)의 페타비트급 네트워킹, 그리고 Amazon Elastic Compute Cloud (Amazon EC2) UltraCluster의 하이퍼스케일 클러스터링 기술이 결합됩니다. 이를 통해 고객들은 이전 세대 NVIDIA GPU를 Amazon EC2에서 사용할 때보다 훨씬 빠르고, 대규모로, 그리고 더 낮은 비용으로 수조 개의 파라미터를 가진 대규모 언어 모델(LLM)을 실시간으로 구축하고 실행할 수 있게 됩니다. Adam Selipsky AWS CEO는 "양사 간의 깊은 협력은 13년 전 세계 최초의 GPU 클라우드 인스턴스를 AWS에서 출시했을 때부터 시작되었으며, 오늘날 우리는 고객들에게 가장 폭넓은 NVIDIA GPU 솔루션을 제공하고 있습니다"라며, "NVIDIA의 차세대 Grace Blackwell 프로세서는 생성형 AI와 GPU 컴퓨팅 분야에서 중요한 도약을 의미합니다. AWS의 강력한 EFA 네트워킹, Amazon EC2 UltraClusters의 하이퍼스케일 클러스터링, 그리고 독보적인 Nitro 시스템의 고급 가상화 및 보안 기능과 결합될 때, 고객들은 수조 개의 파라미터를 가진 LLM을 그 어느 곳보다 빠르고, 대규모로, 그리고 안전하게 구축하고 실행할 수 있습니다. 우리는 AWS를 NVIDIA GPU를 클라우드에서 실행하기에 가장 좋은 장소로 만들기 위해 지속적으로 혁신할 것입니다"라고 말했습니다. Jensen Huang NVIDIA CEO는 "AI는 전례 없는 속도로 혁신을 주도하며, 산업 전반에 걸쳐 새로운 애플리케이션, 비즈니스 모델 및 혁신을 이끌고 있습니다. AWS와의 협력은 새로운 생성형 AI 기능을 가속화하고 고객들에게 가능성의 경계를 넓힐 수 있는 전례 없는 컴퓨팅 성능을 제공합니다"라고 덧붙였습니다. AWS는 72개의 Blackwell GPU와 36개의 Grace CPU가 5세대 NVIDIA NVLink™로 상호 연결된 GB200 NVL72를 특징으로 하는 NVIDIA Blackwell 플랫폼을 제공할 예정입니다. 강력한 AWS 네트워킹(EFA), 고급 가상화(AWS Nitro System), 하이퍼스케일 클러스터링(Amazon EC2 UltraClusters)의 지원을 통해 고객들은 수천 개의 GB200 Superchip으로 확장할 수 있습니다. NVIDIA Blackwell은 AWS에서 리소스 집약적인 수조 개의 파라미터 언어 모델에 대한 추론 워크로드를 가속화하는 데 있어 대폭적인 발전을 제공합니다. NVIDIA H100 기반 EC2 P5 인스턴스의 성공에 이어, AWS는 ML용 Amazon EC2 Capacity Blocks를 통해 단기간 고객에게 제공되는 B100 GPU를 EC2 UltraClusters에 배포하여 대규모 생성형 AI 학습 및 추론을 가속화할 계획입니다. GB200은 또한 AWS에서 공동 엔지니어링된 AI 플랫폼인 NVIDIA DGX Cloud에서도 사용할 수 있으며, 엔터프라이즈 개발자들에게 고급 생성형 AI 모델을 구축하고 배포하는 데 필요한 인프라 및 소프트웨어에 대한 전용 액세스를 제공합니다. AWS의 Blackwell 기반 DGX Cloud 인스턴스는 1조 개 이상의 파라미터를 가진 최첨단 생성형 AI 및 LLM 개발을 가속화할 것입니다. AWS Nitro System, AWS KMS, 암호화된 EFA 및 Blackwell 암호화를 통한 AI 보안 강화 고객들이 조직 내에서 AI를 신속하게 구현함에 따라, 학습 워크플로우 전반에 걸쳐 데이터가 안전하게 처리되고 있는지 확인할 필요가 있습니다. 모델 가중치(모델이 학습 중에 학습하는 파라미터로, 예측 능력에 중요)의 보안은 고객의 지적 재산을 보호하고, 모델의 무단 변경을 방지하며, 모델 무결성을 유지하는 데 매우 중요합니다. AWS AI 인프라 및 서비스는 이미 고객에게 데이터 제어권을 제공하고 제3자 모델 제공업체와 공유되지 않도록 하는 보안 기능을 갖추고 있습니다. AWS Nitro System과 NVIDIA GB200의 조합은 무단 개인이 모델 가중치에 액세스하는 것을 방지함으로써 AI 보안을 더욱 강화합니다. GB200은 GPU 간 NVLink 연결의 인라인 암호화를 허용하고 데이터 전송을 암호화하며, EFA는 분산 학습 및 추론을 위해 서버 간 데이터를 암호화합니다. GB200은 또한 AWS Nitro System의 이점을 누릴 수 있습니다. Nitro System은 호스트 CPU/GPU의 I/O 기능을 특수 AWS 하드웨어로 오프로드하여 보다 일관된 성능을 제공하며, 향상된 보안 기능은 고객 코드와 데이터를 처리 중(고객 측 및 AWS 측 모두)에 보호합니다. 이 기능은 AWS에서만 사용할 수 있으며, 선도적인 사이버 보안 회사인 NCC Group에 의해 독립적으로 검증되었습니다. Amazon EC2의 GB200을 통해 AWS는 고객들이 AWS Nitro Enclaves와 AWS KMS를 사용하여 EC2 인스턴스와 함께 신뢰할 수 있는 실행 환경을 생성할 수 있도록 지원합니다. Nitro Enclaves를 통해 고객은 자체 제어 하에 있는 키 자료를 사용하여 KMS로 학습 데이터와 가중치를 암호화할 수 있습니다. 이 엔클레이브는 GB200 인스턴스 내에서 로드될 수 있으며 GB200 Superchip과 직접 통신할 수 있습니다. 이를 통해 KMS는 엔클레이브와 직접 통신하고 암호화 방식으로 안전하게 키 자료를 직접 전달할 수 있습니다. 엔클레이브는 이 자료를 고객 인스턴스로부터 보호되는 GB200으로 전달하여 AWS 운영자가 키에 액세스하거나 학습 데이터 또는 모델 가중치를 해독하는 것을 방지함으로써 고객에게 데이터에 대한 탁월한 제어권을 제공합니다. Project Ceiba, NVIDIA의 미래 생성형 AI 혁신을 AWS에서 가속화 2023년 AWS re:Invent에서 발표된 Project Ceiba는 NVIDIA와 AWS 간의 협력으로 세계에서 가장 빠른 AI 슈퍼컴퓨터 중 하나를 구축하는 프로젝트입니다. AWS에서만 호스팅되는 이 슈퍼컴퓨터는 NVIDIA 자체 연구 개발에 사용됩니다. 20,736개의 B200 GPU를 갖춘 이 최초의 슈퍼컴퓨터는 5세대 NVLink로 연결된 10,368개의 NVIDIA Grace CPU를 특징으로 하는 새로운 NVIDIA GB200 NVL72 시스템을 사용하여 구축되고 있습니다. 이 시스템은 4세대 EFA 네트워킹을 사용하여 확장되며, Superchip당 최대 800Gbps의 저지연, 고대역폭 네트워킹 처리량을 제공하여 414 엑사플롭스의 AI를 처리할 수 있습니다. 이는 Ceiba를 Hopper 아키텍처에 구축하려는 이전 계획보다 6배 향상된 성능입니다. NVIDIA 연구 개발팀은 Ceiba를 사용하여 LLM, 그래픽(이미지/비디오/3D 생성), 시뮬레이션, 디지털 생물학, 로봇 공학, 자율 주행 자동차, NVIDIA Earth-2 기후 예측 등 AI를 발전시켜 NVIDIA의 미래 생성형 AI 혁신을 추진할 것입니다. AWS와 NVIDIA 협력, 생성형 AI 애플리케이션 개발 및 헬스케어 및 생명 과학 분야 활용 사례 가속화 AWS와 NVIDIA는 NVIDIA AI Enterprise와 함께 제공되는 NVIDIA NIM 추론 마이크로서비스와 Amazon SageMaker 통합을 통해 고성능, 저비용 생성형 AI 추론을 제공하기 위해 협력했습니다. 고객은 이 조합을 사용하여 사전 컴파일되고 NVIDIA GPU에서 실행되도록 최적화된 FM을 SageMaker에 신속하게 배포하여 생성형 AI 애플리케이션의 시장 출시 시간을 단축할 수 있습니다. AWS와 NVIDIA는 생성 화학, 단백질 구조 예측, 약물 분자가 표적과 상호 작용하는 방식을 이해하기 위한 새로운 NVIDIA BioNeMo™ FM을 통해 컴퓨터 지원 신약 개발을 확장하기 위해 협력했습니다. 이러한 새로운 모델은 곧 헬스케어 및 생명 과학 조직이 유전체, 전사체 및 기타 오믹스 데이터를 저장, 쿼리 및 분석하는 데 도움이 되는 전용 서비스인 AWS HealthOmics에서 사용할 수 있게 될 것입니다. AWS HealthOmics와 NVIDIA Healthcare 팀은 또한 신약 개발, 의료 기술 및 디지털 건강을 발전시키기 위한 생성형 AI 마이크로서비스를 출시하기 위해 협력하고 있으며, 생물학, 화학, 영상 및 의료 데이터에 대한 GPU 가속 클라우드 엔드포인트의 새로운 카탈로그를 제공하여 의료 기업이 AWS에서 최신 생성형 AI 발전을 활용할 수 있도록 합니다. NVIDIA 소개 1993년 설립된 NVIDIA(NASDAQ: NVDA)는 가속 컴퓨팅 분야의 선구자였습니다. 1999년 GPU 발명은 PC 게임 시장의 성장을 촉발하고, 컴퓨터 그래픽을 재정의했으며, 현대 AI 시대를 열었고, 시장 전반에 걸쳐 산업 디지털화를 추진하고 있습니다. NVIDIA는 이제 산업을 재편하는 데이터 센터 규모의 제품을 제공하는 풀스택 컴퓨팅 인프라 회사입니다. 자세한 내용은 https://nvidianews.nvidia.com/ 에서 확인할 수 있습니다. Amazon Web Services (AWS) 소개 2006년부터 Amazon Web Services는 세계에서 가장 포괄적이고 널리 채택된 클라우드입니다. AWS는 지속적으로 발전하고 있습니다.

관련 기사