- CPU 역할 확장해 추론·오케스트레이션 성능과 효율 동시 개선
![[GTC 2026] 엔비디아, 베라 CPU 공개…에이전틱 AI 처리 구조 확장.jpg](/files/attach/images/2026/03/17/c01a6744e2bbf983082f8f539e38e8b2.jpg)
엔비디아가 GTC 2026에서 에이전틱 AI와 강화학습을 위한 ‘베라 CPU’를 공개하며 AI 인프라 구조를 확장한다. 보조 연산에 머물던 CPU를 실행과 제어 중심으로 끌어올리면서, 대규모 에이전틱 워크로드를 안정적으로 처리하는 기반을 제시했다.
CPU 중심으로 재편되는 AI 실행 구조
에이전틱 AI는 작업 계획과 도구 실행, 데이터 처리, 결과 검증이 동시에 이어지는 복합 연산 환경이다. 베라 CPU는 이러한 과정을 직접 처리하도록 설계돼 CPU가 실행 흐름 전반에 관여하는 구조를 만든다. 기존 랙 스케일 CPU 대비 2배 높은 효율과 최대 50% 향상된 성능으로 처리량과 응답 속도를 끌어올릴 수 있다.
GPU와 결합해 데이터 이동 병목 완화
NVLink-C2C 인터커넥트를 통해 GPU와 직접 연결되며 1.8TB/s 대역폭을 제공한다. PCIe Gen6 대비 최대 7배 빠른 전송 속도를 바탕으로 CPU와 GPU 간 데이터 이동 병목을 줄인다. HGX 루빈 NVL8 시스템에서는 호스트 CPU로 동작해 데이터 흐름과 시스템 제어를 함께 맡는다.
대규모 워크로드 대응 위한 구조 설계
88개 올림푸스 코어와 고대역폭 메모리 구조를 결합해 다중 작업 환경에서도 안정적인 성능을 유지한다. 공간적 멀티스레딩을 적용해 코어당 두 개의 작업을 동시에 처리하며, 다중 테넌트 환경에서도 일관된 처리 특성을 확보했다. LPDDR5X 기반 메모리는 최대 1.2TB/s 대역폭으로 데이터 처리 속도를 뒷받침한다.
클라우드·OEM 중심으로 도입 확대
알리바바, 메타, OCI, 코어위브 등 주요 클라우드 사업자들이 베라 CPU 도입을 추진하고 있으며, 델, HPE, 레노버, 슈퍼마이크로 등 제조사들도 베라 기반 서버 설계를 진행하고 있다. 데이터센터와 클라우드 환경에서 CPU 중심 AI 워크로드 구성이 빠르게 확산되는 모습이다.
AI 서비스와 연구 환경에서 활용 확대
커서는 AI 코딩 에이전트 처리 성능 향상을 위해 베라를 적용하고 있으며, 레드판다는 스트리밍 워크로드에서 지연 시간을 줄이는 데 활용하고 있다. CERN과 TACC 등 연구기관도 대규모 과학 연산 환경에 적용을 검토하며 성능 검증을 이어가는 상황이다.
엔비디아 젠슨 황 CEO는 “AI 시스템에서 CPU의 역할이 확장되면서 모델 실행과 오케스트레이션을 동시에 담당하는 구조가 중요해지고 있다”며 “베라는 이러한 요구에 맞춰 성능과 효율을 함께 제공하는 기반”이라고 설명했다.
#엔비디아 #GTC2026 #베라CPU #AgenticAI #AI인프라 #NVLink #데이터센터 #AI컴퓨팅