- 엔비디아 L4 GPU 4개로 구성된 클러스터로 5시간 동안 문제 50개 중 34개 풀이

- 자연어 추론과 파이썬 코드 실행 결합한 더 작고, 빠른 긴 사고 모델 구축

- 조기 중단 기법 도입해 추론 시간 획기적으로 단축

엔비디아, AI 수학 올림피아드서 1위… 추론 모델로 일반화 성능 입증.jpg

 

엔비디아가 AI 수학 올림피아드(AI Mathematical Olympiad)에 참여해 AI 추론 모델의 뛰어난 일반화 성능을 바탕으로 우승을 차지했다고 밝혔다. AI 수학 올림피아드의 최근 대회 마지막 며칠은 엔비디아 팀에겐 대륙을 넘나드는 릴레이였다.

 

미국 반대편 끝에 있는 두 팀원은 매일 저녁, 데이터 과학과 머신 러닝의 온라인 올림픽인 캐글(Kaggle)에 AI 추론 모델을 제출했다. 이후 복잡한 수학 문제 50개로 구성된 샘플 세트에 모델이 얼마나 잘 대응했는지를 확인하기까지 약 5시간의 긴장감 넘치는 기다림이 이어졌다. 결과를 확인한 미국 팀은 아르메니아, 핀란드, 독일, 북아일랜드에 있는 팀원들에게 바통을 넘겼다. 이 팀원들은 다양한 모델 버전을 테스트하고 수정하며 최적화하는 데 하루를 보냈다.

 

선임 응용 과학자인 이고르 깃먼(Igor Gitman)은 “매일 밤 점수를 보고 실망했다. 그러나 다음날 일어나 유럽 팀원들이 밤사이 보내온 메시지를 보면 다시 희망이 생겼다. 그리고 다시 도전했다”고 밝혔다. 

 

대회 마지막 며칠 동안 엔비디아 팀은 공개 데이터세트 기준으로는 개선이 부족한 상황에 낙담했다. 그러나 AI 모델의 진정한 시험대는 보이지 않는 데이터에 대한 일반화 성능이며, 이는 엔비디아 추론 모델이 순위표의 최상위로 도약할 수 있었던 이유였다. 엔비디아 L4 GPU 4개로 구성된 클러스터를 사용해 제한 시간 5시간 내에 올림피아드 문제 50개 중 34개를 정확히 풀어낸 것이다.

 

북아일랜드 팀원이자 캐글 그랜드마스터(Grandmaster)이며 수석 거대 언어 모델(LLM) 기술자인 다라 핸리(Darragh Hanley)는 “결국 우리가 마법을 부렸다”고 설명했다. 

 

승리의 방정식 만들기

엔비디아 팀은 네모스킬즈(NemoSkills)라는 이름으로 대회에 참가했다. 이는 가속화된 LLM 훈련, 평가, 추론을 위한 파이프라인 모음인 네모-스킬즈를 활용한 데서 따온 이름이다. 7인의 구성원은 LLM 훈련, 모델 증류, 추론 최적화에 걸쳐 각기 다른 전문 분야에 기여했다.

 

캐글 챌린지에는 2,200개 이상의 팀이 참가했으며, 이들은 AI 모델을 제출해 수학 문제 50개를 5시간 내에 풀어야 했다. 이는 대수학, 기하학, 조합론, 정수론에 걸친 국가 올림피아드 수준의 고난도 문제로 구성돼 있었다.

엔비디아 팀의 우승 모델은 자연어 추론과 파이썬(Python) 코드 실행의 조합을 사용한다.jpg​​​​​​​

캐글을 통해 제공되는 소규모 엔비디아 L4 GPU 클러스터에서 이 추론 과제를 완료하기 위해 네모스킬즈 팀은 창의력을 발휘해야 했다.  이들의 우승 모델은 연쇄 추론 기능을 갖춘 파운데이션 모델인 큐원2.5-14B-베이스(Qwen2.5-14B-Base)를 사용했다. 팀은 수학 문제에 대해 합성적으로 생성된 수백만 개의 솔루션을 미세 조정했다.

 

이 합성 솔루션은 주로 딥시크-R1(DeepSeek-R1)과 QwQ-32B라는 두 개의 대형 추론 모델이 생성한 결과로, 이를 지식 증류 방식으로 파운데이션 모델에 학습시켰다. 그 결과 자연어 추론과 파이썬 코드 실행을 결합해 복잡한 문제를 해결할 수 있는 더 작고, 더 빠른, 사고(long-thinking) 모델이 탄생했다.

 

성능을 더욱 향상시키기 위해, 팀은 긴 추론 결과들을 병렬로 처리한 뒤 최종 답을 결정하는 방식을 채택했다. 이 과정을 최적화하고 대회의 제한 시간을 맞추기 위해 혁신적인 조기 중단(early-stopping) 기법도 사용했다.

 

예를 들어, 하나의 수학 문제를 모델이 12번 반복해서 풀이하고 가장 빈번하게 나온 답변을 선택하도록 설정할 수 있다. 이때 네모-스킬즈와 엔비디아 텐서RT(TensorRT)-LLM의 비동기 처리 기능을 사용해 모델이 이미 4회 이상 정답에 수렴한 경우 추론을 조기에 종료할 수 있도록 했다. 또한, 텐서RT-LLM을 통해 FP8 양자화 압축 방법을 활용해 더 일반적으로 사용되는 FP16 포맷보다 1.5배 빠른 속도를 달성할 수 있었다. 여기에 애플(Apple)에서 개발한 추측 디코딩 기술인 리드래프터(ReDrafter)를 사용해 속도를 1.8배 더 향상시켰다.

 

최종 모델은 공개 데이터세트보다 대회에서 공개되지 않은 최종 데이터세트에서 더 나은 성능을 보였다. 이는 팀이 일반화 가능한 모델을 성공적으로 구축하고, 샘플 데이터에 LLM을 과하게 맞추지 않았음을 보여줬다.

 

깃먼은 “캐글 대회가 아니더라도 우리는 수학용 AI 추론 모델을 개선하기 위해 계속 노력했을 것이다. 하지만 캐글은 우리 모델이 다른 데이터세트에 얼마나 잘 일반화되는지 벤치마킹하고 발견할 수 있는 기회가 됐다”고 설명했다. 

 

승리 솔루션 공유

엔비디아 팀은 곧 우승 솔루션에 사용된 기술을 자세히 설명하는 기술 보고서를 발표할 예정이다. 또한 데이터세트와 일련의 모델을 허깅페이스(Hugging Face)에서 공유할 계획이다. 아울러 대회 기간 동안 이들이 이룬 발전과 최적화한 기술은 네모-스킬즈 파이프라인에 통합돼 깃허브(GitHub)에서도 확인할 수 있다.

 

이 파이프라인의 주요 데이터, 기술, 인사이트는 최근 출시된 엔비디아 라마 네모트론 울트라(Llama Nemotron Ultra) 모델을 훈련하는 데도 사용됐다.

 

엔비디아의 캐글 그랜드마스터(Kaggle Grandmasters of NVIDIA, KGMoN) 구성원 크리스토프 헨켈(Christof Henkel)은 “이 협업을 진행하는 동안 우리는 엔비디아 소프트웨어 스택 전반의 툴을 사용했다. LLM 연구 개발 팀과 긴밀히 협력해 대회에서 배운 내용을 일상적으로 활용하고 이러한 최적화를 엔비디아의 오픈소스 라이브러리에 적용할 수 있었다”고 밝혔다. 

 

이번 대회 우승 후, 헨켈은 2,300만 명이 넘는 플랫폼 사용자 중 1위를 차지하며 캐글 월드 챔피언(World Champion) 타이틀을 되찾았다. 또 다른 팀원인 핀란드 출신의 이반 소로킨(Ivan Sorokin)은 전 세계 350여 명만이 보유한 캐글 그랜드마스터 타이틀을 획득했다.

 

엔비디아 팀은 우승 상금으로 262,144달러를 받았으며 이를 엔비디아 재단(NVIDIA Foundation)에 기부해 다양한 자선 단체를 지원할 예정이다. 이번 대회에 참여한 전체 팀원은 이고르 깃만, 다라 핸리, 크리스토프 헨켈, 이반 모슈코프(Ivan Moshkov), 베네틱트 시퍼러(Benedikt Schifferer), 이반 소로킨, 슈밤 토슈니왈(Shubham Toshniwal)이다.

 

#엔비디아#수학올림피아드#라마#네모트론#헨켈#

?

  1. 세일포인트, ‘적응형 아이덴티티’ 시대 선언… AI 중심 보안 플랫폼 공개

    - CVS·엔비디아 등 글로벌 파트너와 협력, AI 인텔리전스로 아이덴티티·데이터·보안 통합 세일포인트가 연례 글로벌 컨퍼런스 ‘네비게이트 2025’에서 AI 기반 지능형 보안 플랫폼 ‘세일포인트 플랫폼’을 공개하며, 인간과 머신, AI 에이전트를 아우르는 ‘적응...
    Date2025.10.15 Bynewsit Views231
    Read More
  2. Oracle-AMD, 차세대 AI 슈퍼클러스터 공개…OCI에 50,000 GPU 배치 계획

    Oracle과 AMD가 고객의 AI 워크로드 확장을 위해 장기 협력을 확대한다고 밝혔다. OCI는 AMD Instinct MI450 GPU 기반 공개 AI 슈퍼클러스터를 2026년 3분기부터 제공하며, 2027년 이후까지 총 50,000 GPU를 배치할 계획이다. 슈퍼클러스터는 AMD Instinct MI4...
    Date2025.10.15 Bynewsit Views231
    Read More
  3. 오라클, ‘오라클 AI 데이터베이스 26ai’ 공개… AI 중심 데이터 혁신 전략 강화

    - AI 설계 내장형 차세대 데이터베이스 공개, 주요 데이터 유형과 워크로드 전반에 AI 매끄럽게 통합 - 멀티클라우드·온프레미스 전반에서 데이터 인사이트·혁신·생산성 극대화 - 아파치 아이스버그 지원 자율운영 AI 레이크하우스 도입, 개방형 AI 생태계 강...
    Date2025.10.15 Bynewsit Views214
    Read More
  4. 한국퀀텀컴퓨팅-한국생명정보학회, 양자컴퓨팅 기반 바이오 연구 협력 MOU 체결

    - AI바이오·디지털바이오 분야 양자 알고리즘 공동 개발 - 신약개발·유전체 분석 등 생명정보학에 양자컴퓨팅 본격 도입 한국퀀텀컴퓨팅은 한국생명정보학회(KSB)와 양자컴퓨팅을 활용한 생명정보학 연구 협력 강화를 위한 업무협약(MOU)을 체결했다고 밝혔다....
    Date2025.10.15 Bynewsit Views254
    Read More
  5. 지멘스, 두카티와 기술 협력 연장…MotoGP 기술 혁신에 박차

    - 모터사이클 업체 두카티와 기술 파트너십 확대… Siemens Xcelerator 통한 연구개발 통합·최적화 지멘스 디지털 인더스트리 소프트웨어가 두카티 코르세(Ducati Corse)와 기술 파트너십을 향후 2년간 연장한다고 발표했다. 이번 협약을 통해 양사는 지멘스 엑...
    Date2025.10.15 Bynewsit Views218
    Read More
  6. 유아이패스-엔비디아, 민감한 워크플로우 위한 신뢰성 높은 에이전틱 자동화 제공

    유아이패스(UiPath)는 엔비디아(NVIDIA)와 협력해 금융 사기 탐지, 의료 환자 관리 등 고신뢰 환경에서 기업의 자동화 워크플로우를 AI 기능으로 강화한다고 밝혔다. 이번 협력은 유아이패스의 자동화 역량과 엔비디아의 네모트론(Nemotron) 공개 모델, NIM 마...
    Date2025.10.14 Bynewsit Views218
    Read More
  7. 벡터-시높시스, 가상 ECU 기반 SDV 개발 지원 강화

    벡터코리아는 자사의 ECU 개발 솔루션 ‘MICROSAR Classic’과 시높시스(Synopsys)의 가상 ECU(Silver)를 통합, 소프트웨어 정의 차량(SDV) 개발 초기 단계부터 ECU 검증을 지원한다고 발표했다. 이번 통합은 개발 초기 단계에서 소프트웨어 테스트·검증을 병행...
    Date2025.10.14 Bynewsit Views219
    Read More
  8. 줌, ‘줌 폰’ 전 세계 사용자 1천만 석 돌파… AI 기반 기업 커뮤니케이션 혁신 선도

    줌 커뮤니케이션스는 자사의 AI 퍼스트 클라우드 전화 솔루션 ‘줌 폰(Zoom Phone)’이 전 세계적으로 1천만 석(seat)을 돌파했다고 발표했다. 이번 성과는 기업 커뮤니케이션 현대화를 향한 줌의 전략적 비전을 보여주는 중요한 이정표로 평가된다. 2019년 출시...
    Date2025.10.14 Bynewsit Views233
    Read More
  9. 델, 엔비디아 GB10 기반 초고성능 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시

    - 최대 2,000억개 매개변수 LLM 로컬 실행… AI 개발의 새로운 전환점 제시 델은 네트워크 연결 없이도 데스크톱 환경에서 최대 2,000억개 매개변수의 LLM을 개발·추론할 수 있는 초고성능 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 발표 ...
    Date2025.10.14 Bynewsit Views263
    Read More
  10. 클라우드플레어, 오라클과 손잡고 AI 워크로드 가속화 및 멀티클라우드 보안 강화

    클라우드플레어(Cloudflare)가 오라클 클라우드 인프라스트럭처(OCI)와 통합을 공식 발표했다. 이번 협력을 통해 클라우드플레어의 커넥티비티 클라우드 플랫폼이 오라클 클라우드 환경에 네이티브 형태로 제공되며, 전 세계 고객은 OCI 콘솔과 API를 통해 보...
    Date2025.10.14 Bynewsit Views250
    Read More
목록
Board Pagination Prev 1 ... 35 36 37 38 39 40 41 42 43 44 ... 235 Next
/ 235
CLOSE