인텔, 구글과 AI 인프라 협력 확대...Xeon·IPU로 이기종 컴퓨팅 효율 개선

by newsit posted Apr 10, 2026
Extra Form
?

단축키

Prev이전 문서

Next다음 문서

ESC닫기

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄

- CPU·인프라 가속 분담 방식으로 학습·추론·데이터 처리 최적화

 1K인텔, 구글과 AI 인프라 협력 확대… 제온·IPU로 이기종 시스템 효율 개선.jpg

인텔이 구글과 다년 협력을 확대하며 제온(Xeon) 프로세서와 IPU(인프라 처리 장치) 기반 이기종 컴퓨팅 적용 범위를 넓힌다. CPU 제어와 인프라 가속 기능을 분리해 AI 학습과 추론, 데이터 처리 전반의 시스템 처리 효율을 개선했다.

 

AI 워크로드 증가로 CPU 역할 확대

AI 도입이 확대되면서 데이터센터는 CPU, GPU, 가속기가 함께 동작하는 이기종 컴퓨팅 환경으로 빠르게 전환되고 있다. 학습 스케줄링과 데이터 이동, 보안 처리 같은 시스템 제어 작업 비중이 증가하면서 CPU 오케스트레이션 역할 중요성이 커지고 있다. 인텔과 구글은 다양한 세대의 인텔 제온(Intel Xeon) 프로세서를 기반으로 클라우드 인프라 전반의 시스템 제어와 데이터 처리 효율 개선을 추진한다.

 

제온 6 기반 인스턴스로 AI 워크로드 지원

구글 클라우드는 인텔 제온 6(Intel Xeon 6) 프로세서를 적용한 C4 N4 인스턴스를 포함해 다양한 컴퓨팅 환경에 제온 프로세서를 적용하고 있다. 해당 인스턴스는 대규모 AI 학습 조정과 지연 시간 민감 추론, 범용 컴퓨팅 작업을 동시에 처리한다. CPU는 가속기 기반 시스템에서 작업 스케줄링과 데이터 흐름을 제어하는 역할을 담당하며 자원 활용 균형 유지에 기여한다.

 

IPU 공동 개발로 인프라 처리 기능 분리

양사는 주문형 반도체(ASIC) 기반 IPU 공동 개발도 확대한다. IPU는 네트워킹, 스토리지, 보안 처리 같은 인프라 기능을 CPU에서 분리해 처리하는 가속 장치다. CPU는 애플리케이션 연산에 집중하고 IPU는 데이터 이동과 보안 처리를 담당해 시스템 처리 병목을 줄인다. 하이퍼스케일 환경에서 자원 활용 예측 가능성을 높이고 운영 효율 개선 효과를 제공한다.

 

AI 데이터센터 운영 방식 변화

CPU는 제어와 스케줄링을 담당하고 가속기는 연산을 처리하는 역할 분담 방식이 AI 인프라 설계의 기본 구성으로 자리잡고 있다. 범용 연산과 특화 가속 기능을 결합해 워크로드 증가 상황에서도 처리 지연을 줄이는 방향으로 인프라 운영 방식이 변화하고 있다.

 

#인텔 #구글 #Xeon #IPU #AI인프라 #이기종컴퓨팅 #클라우드 #데이터센터 #CPU #가속컴퓨팅

 

Articles

1 2 3 4 5 6 7 8 9 10