- AWS 트레이니움·인퍼런시아 기반 레드햇 AI로 프로덕션 AI 워크로드에 더 폭넓은 성능·유연성 확보

레드햇 매트 힉스 CEO는 AWS와의 협업을 확대해 AWS 전반에서 레드햇 AI와 AWS AI 실리콘을 결합한 엔터프라이즈 생성형 AI 지원을 강화한다고 밝혔다. 이번 협력은 기업이 기반 하드웨어와 무관하게 고효율·고성능 AI 추론을 대규모로 운영하도록 돕는 데 초점을 맞춘다.
AWS AI 칩 기반으로 강화된 레드햇 AI 인퍼런스 서버
레드햇은 vLLM 기반 ‘레드햇 AI 인퍼런스 서버’를 AWS 인퍼런시아2와 트레이니움3 칩에서 실행할 수 있도록 확장했다. 이를 통해 고객은 모든 세대의 생성형 AI 모델을 공통 레이어에서 운영할 수 있으며, 기존 GPU 기반 EC2 환경 대비 30~40% 향상된 가격 대비 성능을 확보할 수 있다. 고대역폭·저지연 추론 환경도 제공해 프로덕션 AI 배포의 효율성을 높였다.
오픈시프트 전반에 AWS 가속기 지원 확대
양사는 레드햇 오픈시프트, 오픈시프트 AI, ROSA에서 AWS 가속기를 활용할 수 있도록 ‘AWS 뉴런 오퍼레이터’를 공동 개발했다. 이를 통해 고객은 AWS 인프라에서 AI 워크로드를 더 쉽게 배포·관리할 수 있는 실행 환경을 제공받는다. 레드햇은 또한 ‘amazon.ai 인증 앤서블 컬렉션’을 출시해 오픈시프트 기반 워크로드에서 AWS AI 서비스를 자동화·오케스트레이션할 수 있도록 지원하고 있다.
접근성과 운영 유연성을 높이는 협업 구조
레드햇은 AWS 환경에서 필요한 대규모 AI 가속기에 대한 접근성을 강화하고, 고객 워크로드의 배포 용이성을 높이는 방향으로 지원을 확장한다. 두 회사는 AWS AI 칩 플러그인을 최적화하기 위해 vLLM 업스트림 개발에도 공동 기여하고 있으며, 이는 Red Hat OpenShift AI 3에서도 상업적으로 활용되고 있다.
하이브리드 클라우드 기반 AI 운영을 위한 지원 강화
레드햇과 AWS의 장기 협력은 데이터센터부터 엣지까지 이어지는 하이브리드 클라우드 전략을 기반으로 한다. 이번 협력 확대는 기업이 생성형 AI를 운영 환경에 통합하는 과정에서 필요한 성능 효율성, 확장성, 비용 절감 요구를 충족하도록 설계됐다.
AWS 뉴런 커뮤니티 오퍼레이터는 오픈시프트 및 ROSA 환경에서 바로 사용할 수 있다. AWS AI 칩 기반 레드햇 AI 인퍼런스 서버는 2026년 1월 개발자 프리뷰로 제공될 예정이다.
#레드햇 #AWS #OpenShiftAI #트레이니움 #인퍼런시아 #레드햇AI #vLLM #AWSNeuron #Ansible #클라우드AI #엔터프라이즈AI



