- Mistral AI미스트랄 라지모델, 스노우플레이크 데이터 클라우드에서 사용 가능고객과 기업 데이터 보안 강화하며 생성형 AI 활용

- 스노우플레이크 벤처스, Mistral AI에 시리즈 A 투자

- ‘스노우플레이크 코텍스대규모 언어 모델(LLM) 기능, 프리뷰 공개사용자의 빠르고 간편한 생성형 AI 앱 개발 가능해질 것

 

스노우플레이크, Mistral AI와 협력… “스노우플레이크 코텍스로 5개 국어 유창한 LLM 모델 지원”.PNG

데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄(Mistral) AI와 파트너십을 체결했다고 발표했다. 이번 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스의 Mistral AI로의 시리즈 A 투자를 포함한다.

 

양사의 협력으로 스노우플레이크 고객은 Mistral AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(LLM)미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 또한, Mistral AI의 최초 기본 모델인 미스트랄 7B’와 오픈 소스 모델 믹스트랄(Mixtral) 8x7B’에도 액세스할 수 있다.

 

미스트랄 라지는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고, 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있으며, 프랑스어 영어 독일어 스페인어 이탈리아어 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 대규모 다중 작업 언어 이해 측정(MMLU)’을 비교함에 있어서 뛰어난 성능을 입증하고 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다.

 

미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. ‘믹스트랄 8x7B’는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다.

 

Mistral AI의 모델들은 스노우플레이크 코텍스(Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안과 개인정 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.

 

스노우플레이크 슈리다 라마스워미(Sridhar Ramaswamy) 신임 CEO스노우플레이크는 Mistral AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다고 설명하고, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인정보보호는 강화하고, 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다고 밝혔다.

 

Mistral AI의 공동 창립자 겸 CEO 아르튀르 멘슈(Arthur Mensch)스노우플레이크의 보안, 개인정보보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 Mistral AI의 포부와 맞아떨어진다. Mistral AI는 전 세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능·고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다고 밝히고, “스노우플레이크 데이터 클라우드에서 Mistral AI의 모델을 활용함으로써 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다고 덧붙였다.

 

스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한 메타(Meta)라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 Mistral AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면의 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다.

 

복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아(NVIDIA)와도 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버(Triton Inference Server)를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다.

 

스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다.

 

파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 Mistral AILLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다.

 

스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 ‘AI 얼라이언스(AI Alliance)’에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다.

 

 

#스노우플레이크#LLM#Mistral_AI

 
?

  1. 인피니언, ‘CoolSiC MOSFET 750V G1’ 제품군 출시

  2. WD, ‘PC SN5000S NVMe SSD’ 공개…“차세대 QLC 성능 지원"

  3. 유아이패스, 구글 클라우드와 전략적 파트너십 확대…“생성형 AI 및 클라우드 기반 자동화 가속화”

  4. 주니퍼 네트웍스, 2024년 가트너 매직 쿼드런트 「엔터프라이즈 유무선 LAN 인프라」 부문에서 4회 연속 리더로 선정

  5. 대원씨티에스, 가장 빠른 Gen5 규격 NVMe 「마이크론 크루셜 T705」 출시…“최대 1만4500MB/s 읽기, 1만2700MB/s 쓰기 속도”

  6. MSI, AI 워크스테이션 노트북 '크리에이터 프로 Z17 HX Studio' 컴퓨존 단독 입점

  7. 파수, 4월 3일 ‘FDI 2024’ 콘퍼런스 개최…“AI 활용 청사진 제시”

  8. 레드햇, ‘컨테이너 데이’ 성료…“애플리케이션 현대화를 위한 노하우 공유”

  9. 래안텍, 「아크셀 27QAF65CE IPS」 등 전 제품 대상 ‘상품평 쓰면 상품권 쏜다’ 이벤트

  10. 세일즈포스, 생성형 AI로 무장한 ‘슬랙 AI’ 공개…“‘업무를 위한 업무’ 줄여 생산성 및 직원경험 향상”

  11. 카테노이드, NHN여행박사에 ‘콜러스 라이브 커머스’ 제공

  12. 레드햇, ‘2024 글로벌 고객 IT기술 전망 보고서’ 발표…“보안은 여전히 최우선 순위”

  13. 코세라, 한국 수강생을 위한 새로운 AI 기능 출시…“4400여개 강좌 한국어 번역”

  14. NCH코리아, 국제 표준 안전인증 ISO 45001 획득…“ESG 경영 강화”

  15. 가민코리아, 첫 번째 ‘2024 가민 커뮤니티 데이’ 성료

  16. 샥즈, ‘2024 서울마라톤’ 공식 협력사로 참여

  17. 스노우플레이크, Mistral AI와 협력… “스노우플레이크 코텍스로 5개 국어 유창한 LLM 모델 지원”

  18. 한국산업지능화협회, 「2024 스마트공장 자동화산업전 및 산업지능화 컨퍼런스」 25일까지 사전등록 접수

  19. 그리팅, 자체 개발한 ‘AI 파싱’ 기능 출시… “기업의 인재 재발굴 돕는다”

  20. AWS, 비즈니스 혁신을 위한 ‘생성형 AI 컴피턴시’ 발표

Board Pagination Prev 1 ... 116 117 118 119 120 121 122 123 124 125 ... 249 Next
/ 249
CLOSE