AI 요약
이 새로운 아키텍처는 컴퓨트 성능을 최대 25% 향상시키고 메모리 용량을 33% 늘리며 전력 효율성을 개선하여 클라우드 AI 인프라의 TCO를 낮출 것으로 기대됩니다.
Marvell이 클라우드 AI 가속기 최적화를 위한 혁신적인 맞춤형 HBM 컴퓨트 아키텍처를 발표하며 기술 리더십을 강화했습니다.
Micron, Samsung, SK hynix 등 주요
HBM 제조사와의 협력을 통해 차세대 AI 가속기 성능을 한 단계 끌어올릴 전망입니다.
핵심 포인트
- Marvell이 클라우드 AI 가속기 최적화를 위한 혁신적인 맞춤형 HBM 컴퓨트 아키텍처를 발표하며 기술 리더십을 강화했습니다.
- 이 새로운 아키텍처는 컴퓨트 성능을 최대 25% 향상시키고 메모리 용량을 33% 늘리며 전력 효율성을 개선하여 클라우드 AI 인프라의 TCO를 낮출 것으로 기대됩니다.
- Micron, Samsung, SK hynix 등 주요 HBM 제조사와의 협력을 통해 차세대 AI 가속기 성능을 한 단계 끌어올릴 전망입니다.
긍정 / 부정 요인
긍정 요인
- 클라우드 AI 가속기 성능 향상
- 컴퓨트 성능 최대 25% 향상
- 메모리 용량 최대 33% 증가
- 전력 효율성 개선
- 주요 HBM 제조사와의 협력 강화
기사 전문
Marvell, AI 가속기 성능 혁신 이끌 맞춤형 HBM 컴퓨트 아키텍처 공개
데이터 인프라 반도체 솔루션 선도 기업 Marvell Technology, Inc. (NASDAQ: MRVL)가 XPUs(eXtended Processing Units)의 컴퓨팅 및 메모리 집적도를 향상시키는 새로운 맞춤형 HBM(High Bandwidth Memory) 컴퓨트 아키텍처를 개발했다고 발표했습니다. 이 신기술은 Marvell의 맞춤형 실리콘 고객사들에게 제공되어, 이들의 맞춤형 XPUs 성능, 효율성 및 총소유비용(TCO)을 개선할 수 있도록 지원합니다.
Marvell은 클라우드 고객사 및 HBM 제조사인 Micron, Samsung Electronics, SK hynix와 협력하여 차세대 XPUs를 위한 맞춤형 HBM 솔루션을 정의하고 개발하고 있습니다. HBM은 첨단 2.5D 패키징 기술과 고속 산업 표준 인터페이스를 활용하여 XPU 내에 통합되는 핵심 구성 요소입니다. 그러나 기존의 표준 인터페이스 기반 아키텍처는 XPU의 확장성에 제약을 가져왔습니다.
이번에 공개된 Marvell의 맞춤형 HBM 컴퓨트 아키텍처는 특정 XPU 설계를 위해 성능, 전력, 다이 크기 및 비용을 최적화하는 맞춤형 인터페이스를 도입합니다. 이 접근 방식은 컴퓨팅 실리콘, HBM 스택 및 패키징을 모두 고려합니다. Marvell은 HBM 메모리 서브시스템 자체를 맞춤화함으로써 클라우드 데이터센터 인프라의 맞춤화를 한 단계 발전시키고 있습니다.
Marvell은 주요 HBM 제조사들과 협력하여 이 새로운 아키텍처를 구현하고 클라우드 데이터센터 운영업체들의 요구를 충족시킬 계획입니다. Marvell의 맞춤형 HBM 컴퓨트 아키텍처는 내부 AI 컴퓨트 가속기 실리콘 다이와 HBM 베이스 다이 간의 I/O 인터페이스를 직렬화하고 속도를 높여 XPUs를 강화합니다. 이를 통해 표준 HBM 인터페이스 대비 최대 70% 낮은 인터페이스 전력으로 성능을 향상시킵니다.
최적화된 인터페이스는 각 다이에서 필요한 실리콘 공간을 줄여, HBM 지원 로직을 베이스 다이에 통합할 수 있게 합니다. 이러한 최대 25%의 공간 절약은 컴퓨팅 기능 강화, 새로운 기능 추가, 그리고 최대 33% 더 많은 HBM 스택 지원으로 이어져 XPU당 메모리 용량을 증가시킵니다. 이러한 개선은 XPU 성능과 전력 효율성을 높이는 동시에 클라우드 운영업체의 TCO를 절감합니다.
Marvell의 Custom, Compute and Storage Group 수석 부사장 겸 총괄 매니저인 Will Chu는 "선도적인 클라우드 데이터센터 운영업체들은 맞춤형 인프라를 통해 확장해왔습니다. 특정 성능, 전력 및 총소유비용에 맞춰 HBM을 맞춤화하여 XPUs를 강화하는 것은 AI 가속기 설계 및 제공 방식의 새로운 패러다임에서 최신 단계입니다. 우리는 선도적인 메모리 설계 업체들과 협력하여 이러한 혁신을 가속화하고, 클라우드 데이터센터 운영업체들이 AI 시대를 위한 XPUs와 인프라를 지속적으로 확장할 수 있도록 돕게 되어 매우 기쁩니다."라고 말했습니다.
Micron의 Compute and Networking Business Unit 수석 부사장 겸 총괄 매니저인 Raj Narasimhan은 "메모리 용량과 대역폭 증가는 클라우드 운영업체들이 AI 시대를 위한 인프라를 효율적으로 확장하는 데 도움이 될 것입니다. Marvell과의 전력 효율성에 초점을 맞춘 전략적 협력은 Micron의 업계 선도적인 HBM 전력 사양을 기반으로 하며, 하이퍼스케일러들에게 AI 확장에 필요한 성능과 최적의 성능을 제공할 견고한 플랫폼을 제공할 것입니다."라고 덧붙였습니다.
Samsung Electronics의 기업 임원 부사장 겸 Americas 제품 및 솔루션 기획 책임자인 Harry Yoon은 "특정 XPUs 및 소프트웨어 환경에 맞춰 HBM을 최적화하는 것은 클라우드 운영업체 인프라의 성능을 크게 향상시키고 효율적인 전력 사용을 보장할 것입니다. AI의 발전은 이러한 집중적인 노력에 달려 있습니다. 맞춤형 컴퓨트 실리콘 혁신의 선두 주자인 Marvell과의 협력을 기대합니다."라고 전했습니다.
SK hynix America의 DRAM 기술 부사장인 Sunny Kang은 "Marvell과의 협력을 통해 고객들은 워크로드 및 인프라에 대한 보다 최적화된 솔루션을 생산할 수 있습니다. HBM의 선도적인 개척자 중 하나로서, 우리는 이 기술의 다음 진화 단계를 형성하는 것을 기대합니다."라고 말했습니다.
Moor Insights & Strategy의 CEO 겸 설립자인 Patrick Moorhead는 "맞춤형 XPUs는 특정 클라우드 고유 워크로드에 대해 상용 범용 솔루션에 비해 뛰어난 성능과 와트당 성능을 제공합니다. 이미 맞춤형 컴퓨트 실리콘 분야의 플레이어인 Marvell은 선도적인 클라우드 기업들에게 맞춤형 솔루션을 제공하고 있습니다. 그들의 최신 맞춤형 컴퓨트 HBM 아키텍처 플랫폼은 맞춤형 실리콘의 TCO를 향상시키는 추가적인 레버를 제공합니다. 선도적인 메모리 제조사들과의 전략적 협력을 통해 Marvell은 클라우드 운영업체들이 XPUs와 가속화된 인프라를 확장할 수 있도록 지원할 준비가 되어 있으며, 이를 통해 AI의 미래를 구현할 수 있는 길을 열 것입니다."라고 평가했습니다.
관련 기사
엔비디아 AI 생태계 확장, 마벨과 NVLink Fusion 통해 협력
긍정2026년 3월 31일 PM 12:03Marvell Technology, Inc., 2026 회계연도 3분기 재무 결과 검토를 위한 컨퍼런스 콜 발표
중립2025년 11월 3일 PM 03:00Marvell, Connectivity 포트폴리오에 Active Copper Cable Linear Equalizers 추가
긍정2025년 10월 13일 PM 03:00Marvell, 2025 OCP Global Summit에서 차세대 가속 인프라 공개
긍정2025년 10월 6일 PM 03:00Marvell, 베트남, 엔지니어링 인력 500명 돌파하며 세 번째로 큰 글로벌 R&D 허브로 부상
긍정2025년 9월 29일 PM 03:00