- 7종 칩·5개 랙 통합 설계로 학습·추론·에이전트 전 과정 처리

 

[GTC 2026] 엔비디아, ‘베라 루빈’ 공개… NVL72·LPU 기반 AI 팩토리 전환.jpg

엔비디아가 GTC 2026에서 차세대 AI 플랫폼 베라 루빈을 공개하고, AI 인프라를 랙·POD 기반 ‘AI 팩토리구조로 확장한다고 밝혔다. GPU 중심 연산 구조에서 벗어나 학습과 추론, 에이전트 실행을 하나의 시스템으로 통합한 점이 핵심이다.

 

GPU 중심 구조에서 팩토리형 인프라로 이동

AI 인프라는 GPU 성능과 서버 확장 중심으로 발전해왔다. 모델 규모 확대와 에이전틱 워크로드 증가로 연산, 검증, 추론, 메모리를 동시에 처리하는 구조가 요구되고 있다. 베라 루빈은 칩 단위가 아닌 랙·POD 단위로 설계된 플랫폼이다. 베라 CPU, 루빈 GPU, NV링크 6, 커넥트X-9, 블루필드-4, 스펙트럼-6, 그록 3 LPU를 통합해 여러 랙이 하나의 시스템처럼 동작한다. 학습과 사후 학습, 테스트 시점 확장, 추론까지 전 과정을 단일 인프라에서 처리한다.

 

NVL72, 학습 효율과 비용 구조 동시 개선

NVL72 랙은 72GPU36CPUNV링크 6로 연결한 통합 시스템이다. 대규모 MoE 모델 학습을 수행하면서 GPU 수를 기존 대비 4분의 1 수준으로 줄였고, 토큰당 비용을 10분의 1 수준으로 낮췄다. 와트당 추론 처리량은 최대 10배까지 향상됐다. 인피니밴드와 이더넷을 통해 대규모 클러스터로 확장되며, 학습 시간 단축과 총소유비용 절감을 동시에 달성한다. GPU 수 증가 대신 효율 중심으로 학습 인프라를 재구성하는 구조다.

 

CPU , 강화학습·검증 루프 처리

베라 CPU 랙은 256CPU 기반 고밀도 액체 냉각 구조로, 강화학습과 시뮬레이션, 검증 워크로드를 처리한다. GPU가 생성한 결과를 테스트하고 반복 학습하는 과정에서 활용되며, 스펙트럼-X 네트워크로 대규모 환경을 동기화한다. 모델 생성 이후 검증과 실행 단계를 처리하는 CPU 비중이 확대되며, 학습 중심 구조에서 학습+검증통합 구조로 전환하는 기반을 형성한다.

 

LPX, 저지연 추론 성능 확보

그록 3 LPU 기반 LPX 랙은 추론 전용 인프라다. 256LPU와 온칩 SRAM, 초당 640TB 대역폭을 기반으로 메가와트당 최대 35배 수준의 추론 처리량을 제공한다GPULPU가 공동으로 토큰 연산을 수행해 디코딩 속도를 높이고, 1조 파라미터·100만 토큰 컨텍스트 기반 모델에 대응한다. 대규모 모델에서 발생하는 추론 지연을 줄인다.

 

STX, KV 캐시 기반 메모리 확장 구조

블루필드-4 STX 랙은 KV 캐시 데이터를 저장·검색하는 AI 전용 스토리지 계층이다. GPU 메모리를 POD 전체로 확장하며, 도카 메모스 기반으로 추론 처리량을 최대 5배까지 높인다. 대규모 컨텍스트와 멀티턴 상호작용 환경에서 메모리 병목을 줄인다.

 

SPX, 랙 간 데이터 흐름 최적화

스펙트럼-6 SPX 이더넷은 AI 팩토리 내부의 동서 트래픽을 처리한다. 광학 모듈 통합 구조를 통해 기존 대비 최대 5배 높은 전력 효율과 10배 높은 복원력을 제공한다. 대규모 클러스터 환경에서 네트워크 병목을 줄이고 안정적인 확장성을 확보한다.

 

전력·운영까지 포함된 인프라 설계

엔비디아는 DSX 플랫폼을 통해 전력 제약 환경에서도 데이터센터 인프라 밀도를 높이는 방식을 제시했다. DSX는 동적 전력 프로비저닝을 적용해 최대 30% 추가 시스템 구축을 지원한다. AI 인프라 설계는 연산 성능 중심에서 전력과 운영 효율까지 포함하는 구조로 확장된다.

 

클라우드·AI 생태계 확산

베라 루빈 기반 인프라는 AWS, 구글 클라우드, 마이크로소프트 애저, 오라클 등을 통해 제공될 예정이다. 오픈AI, 앤트로픽, 미스트랄 등 주요 AI 기업들도 해당 플랫폼을 기반으로 대규모 모델과 에이전트 시스템을 확장할 계획이다.

 

엔비디아 젠슨 황 CEO베라 루빈은 7개 칩과 5개 랙으로 구성된 통합 인프라로 AI 전 단계를 지원하며, 에이전틱 AI 전환을 본격화하는 기반이라고 밝혔다.

 

#GTC2026 #엔비디아 #베라루빈 #AI팩토리 #NVL72 #LPU #블루필드4 #스펙트럼6 #AI인프라 #데이터센터

 

 
?

List of Articles
번호 분류 제목 글쓴이 날짜 조회 수
2320 [GTC 2026] 엔비디아, 금융 AI 확산 가속…마스터카드·레볼루트·아디옌 도입 확대 - 트랜잭션 파운데이션 모델로 사기 탐지·신용 예측·결제 최적화 강화 엔비디아가 GTC 2026에서 글로벌 금융 기업들이 자사 기반 트랜잭션 파운데이션 모델을 도... file newsit 2026.03.19 38
2319 스플렁크, ‘스플렁크 고 2026 서울’ 개최… 에이전틱 AI 옵저버빌리티 전략 공개 - 시스코 데이터 패브릭 결합…AI 스택 전반 가시성·보안·제어 통합 스플렁크가 ‘스플렁크 고 2026 서울’을 개최하고 AI 스택 전반의 가시성과 보안·제어를 통합하... file newsit 2026.03.18 44
2318 NXP, 엔비디아와 로보틱스 솔루션 출시…피지컬 AI 데이터 처리 구조 통합 - 센서 융합·모터 제어 통합 제품 공개…저지연 데이터 처리·전송 기반 구축 NXP가 엔비디아와 협력해 로보틱스 솔루션을 출시하며 피지컬 AI 환경에서 요구되는 ... file newsit 2026.03.18 43
2317 [GTC 2026] SAP, 폭스콘과 ‘AI 팩토리’ 협력…제조·공급망 구조 통합 추진 - GTC 2026서 파트너십 발표…엔터프라이즈 AI·스마트 제조 결합 모델 구축 SAP가 폭스콘과 협력해 ‘AI 팩토리’ 기반 제조·공급망 통합 구조를 구축하며 아시아태... file newsit 2026.03.18 43
2316 알리바바, 에이전틱 플랫폼 ‘우콩’ 공개…기업용 AI 업무 자동화 구조 제시 - 멀티 에이전트 오케스트레이션 기반 업무 처리…딩톡 연동·보안 중심 설계 알리바바가 기업 업무에 특화된 AI 네이티브 에이전틱 플랫폼 ‘우콩’을 공개하며 멀티... file newsit 2026.03.18 37
2315 델, 엔비디아 기반 AI 데이터 플랫폼 확대…데이터 병목 해소·AI 처리 구조 통합 - 데이터 라이프사이클 자동화·초고성능 스토리지 결합…에이전틱 AI 워크로드 대응 델이 ‘엔비디아 기반 AI 데이터 플랫폼’을 확대하며 데이터 준비부터 추론까지... file newsit 2026.03.18 42
2314 마스터카드, AI 에이전트 ‘국내 첫 결제’…에이전틱 커머스 실증 - 공항 이동 서비스 예약부터 결제까지 전 과정 자동 수행 마스터카드가 AI 에이전트가 검색부터 결제까지 전 과정을 수행하는 실거래를 국내에서 처음 구현하며 ... file newsit 2026.03.17 38
2313 [GTC 2026] 엔비디아, 다이나모 공개…AI 팩토리용 추론 운영체제 제시 - GPU·메모리 자원 오케스트레이션으로 추론 성능·비용 구조 개선 엔비디아가 GTC 2026에서 대규모 생성형·에이전틱 추론을 위한 오픈소스 소프트웨어 ‘다이나모 ... file newsit 2026.03.17 37
2312 [GTC 2026] 엔비디아, 베라 CPU 공개…에이전틱 AI 처리 구조 확장 - CPU 역할 확장해 추론·오케스트레이션 성능과 효율 동시 개선 엔비디아가 GTC 2026에서 에이전틱 AI와 강화학습을 위한 ‘베라 CPU’를 공개하며 AI 인프라 구조... file newsit 2026.03.17 55
2311 [GTC 2026] 델, AI 팩토리 업데이트…엔터프라이즈 AI ROI 경로 제시 - 데이터·인프라·서비스 통합해 파일럿에서 운영까지 확장 지원 델이 ‘엔비디아 기반 델 AI 팩토리’ 2주년을 맞아 AI 데이터 플랫폼과 인프라, 솔루션 전반을 업... file newsit 2026.03.17 38
목록
Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 235 Next
/ 235
CLOSE