- 베라 CPU·루빈 GPU·NV링크 6·블루필드-4·스펙트럼-6 공동 설계
- 블랙웰 대비 토큰 비용 10배 절감, MoE 훈련 GPU 4배 축소
- 마이크로소프트·AWS·코어위브 등 대규모 생태계 가동
![[CES 2026] 엔비디아, 차세대 AI 위한 ‘루빈’ 플랫폼 공개…6종 신규 칩으로 AI 슈퍼컴퓨터 재정의.jpg](/files/attach/images/2026/01/06/c9de6452c4d931c0ba3f68d96edc167a.jpg)
엔비디아는 CES 2026에서 차세대 AI를 위한 ‘엔비디아 루빈(NVIDIA Rubin)’ 플랫폼을 공개했다. 루빈은 GPU 단품이 아니라 CPU·GPU·네트워크·DPU를 아우르는 랙 스케일 AI 슈퍼컴퓨팅 플랫폼으로, 대규모 훈련과 추론의 비용 구조를 근본적으로 재편하는 데 초점을 맞췄다.
6종 칩 공동 설계로 AI 비용 구조 재편
루빈 플랫폼은 엔비디아 베라 CPU, 루빈 GPU, NV링크 6 스위치, 커넥트X-9 슈퍼NIC, 블루필드-4 DPU, 스펙트럼-6 이더넷 스위치 등 6종 신규 칩을 하나의 아키텍처로 공동 설계했다. 이를 통해 AI 훈련과 추론의 병목을 줄이고, 토큰당 비용을 블랙웰 대비 최대 10배 낮췄다. 대규모 전문가 혼합(MoE) 모델 기준으로는 훈련에 필요한 GPU 수를 기존 대비 4분의 1 수준으로 줄일 수 있다.
랙 스케일 AI 슈퍼컴퓨터로 확장
루빈은 NVL72 랙 스케일 시스템과 HGX 루빈 NVL8 서버 구성으로 제공된다. NVL72는 GPU 72개와 CPU 36개를 NV링크로 연결해 초대형 AI 팩토리를 구현하며, 단일 랙에서 수백 테라바이트급 초고속 대역폭을 제공한다. 이는 에이전틱 AI와 장문 컨텍스트 추론, 멀티모달 모델 운용을 전제로 설계됐다.
차세대 이더넷·보안 아키텍처 강화
스펙트럼-6 이더넷과 스펙트럼-X 포토닉스 스위치 시스템은 AI 데이터센터의 전력 효율과 가동 시간을 크게 끌어올린다. 블루필드-4 DPU 기반 보안 아키텍처는 멀티테넌트 환경에서도 성능 저하 없이 AI 인프라를 격리·운영하도록 설계됐다. 엔비디아는 이를 ‘AI 네이티브 인프라’의 핵심으로 제시했다.
글로벌 클라우드·AI 생태계 본격 가동
루빈 플랫폼을 중심으로 마이크로소프트, AWS, 구글 클라우드, 오라클 OCI, 코어위브 등 주요 클라우드 사업자가 차세대 AI 인프라를 구축한다. 엔비디아는 루빈 기반 인스턴스가 2026년 하반기부터 순차적으로 배포될 예정이라고 밝혔다.
엔비디아 젠슨 황 CEO는 “루빈은 AI를 위한 새로운 컴퓨팅 단위”라며 “대규모 훈련과 추론을 가장 낮은 비용으로 구현해 AI의 확산 속도를 한 단계 끌어올릴 것”이라고 밝혔다.
이번 CES 2026 발표를 통해 엔비디아는 GPU 중심 경쟁을 넘어, AI 데이터센터 전체를 정의하는 플랫폼 기업으로의 전환을 다시 한번 분명히 했다.
#CES2026 #엔비디아 #NVIDIARubin #루빈플랫폼 #AI슈퍼컴퓨터 #AI인프라 #데이터센터 #GPU #AI팩토리 #에이전틱AI #MoE #NVLink #AI반도체