中알리바바 오픈소스 AI '큐원3-코더' 클로드 소넷4에 도전 작성일 07-25 15 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">SWE-벤치서 '오픈AI GPT 4.1·구글 제미나이 2.5프로' 추월<br>현존 오픈소스 모델 중 최고성능…美·中 AI 성능격차 줄어</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="7nrHzdOJtG"> <figure class="figure_frm origin_fig" contents-hash="510442a4397e42723bc612cfda6e265200dd2ff2c9cb26acd279cd7142686790" dmcf-pid="zLmXqJIi5Y" dmcf-ptype="figure"> <p class="link_figure"><img alt="Qwen3-coder 이미지(허깅페이스 갈무리)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/25/NEWS1/20250725143455630fhjj.jpg" data-org-width="1400" dmcf-mid="ugJrYbLK5H" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/25/NEWS1/20250725143455630fhjj.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> Qwen3-coder 이미지(허깅페이스 갈무리) </figcaption> </figure> <p contents-hash="9ca16d6e50ae41ed215f68e2150945fe553e360fe7ed8fdc5b36cade807beb89" dmcf-pid="qosZBiCn5W" dmcf-ptype="general">(서울=뉴스1) 김민석 기자 = 중국 알리바바가 오픈소스로 공개한 인공지능(AI) 코딩 모델 '큐원3-코더'(Qwen3-coder)가 주요 성능 벤치마크에서 오픈AI와 구글의 최신 모델을 앞선 것으로 나타났다.</p> <p contents-hash="62560c3c949e3317efea852d86a29610a6c488de333ce0d84d0671d22ab1cb8a" dmcf-pid="BgO5bnhLXy" dmcf-ptype="general">25일 IT 업계와 외신에 따르면 큐원3-코더는 총 4800억개의 파라미터를 갖춘 전문가 혼합(MoE) 방식으로 쿼리마다 350억 개 파라미터와 160개 전문가 중 8개만 활성화하는 구조를 채택했다.</p> <p contents-hash="9c124c83fcc87f0ce814860a489a3035601274a6a57cdd0908ae047022de39a5" dmcf-pid="baI1KLloGT" dmcf-ptype="general">프로그래밍 에이전트 평가 'SWE-벤치'에서 정답률 67.0%(표준), 69.6%(500턴 테스트)를 기록했다. 이는 GPT-4.1(54.6%)과 제미나이 2.5 프로(49.0%) 등을 앞선 수치다. 클로드 '소넷4'(70.4%)에도 근접햤다.</p> <p contents-hash="a4f5edfe8636b232ca873eb982e993c52b78a2d16aed833c1267167fcd44b34f" dmcf-pid="KNCt9oSgGv" dmcf-ptype="general">알리바바 측은 "큐원3-코더는 7.5조개 토큰을 학습했고 이 중 70%는 코드 데이터"라며 "모델 성능을 높이기 위해 '코드 강화학습'(Code RL)으로 다양한 코딩 작업 테스트 케이스를 자동 생성해 고품질 훈련 인스턴스를 만들었다"고 말했다.</p> <p contents-hash="dd17383879f2addceb31e97196afdec8817c29f75c3c78fc5448baa6f336a8bd" dmcf-pid="9BMkv7dzHS" dmcf-ptype="general">이어 "'장기 강화학습'(Agent RL)을 통해 모델이 도구를 사용해 다중 턴 상호작용으로 실제 문제를 해결하도록 했다"며 "이를 위해 알리바바 클라우드 인프라를 활용해 2만 개의 독립적인 환경을 병렬 실행하는 대규모 시스템을 구축했다"고 설명했다.</p> <p contents-hash="b0c79e2cb98855345e8e23e41a490af4bb4a23070a31ebfb17b1bdf6770f6ee4" dmcf-pid="2bRETzJqGl" dmcf-ptype="general">그러면서 "큐원3 활용 시 주니어 단계 개발자도 시니어 개발자가 일주일 동안 걸리는 프로그래밍 작업을 하루 만에 완료할 수 있다"며 "기업 웹사이트도 5분 만에 만들 수 있다"고 했다.</p> <p contents-hash="846e0a651298180db461a1999013d2f3d1880f7239cc161b6930e53b47011c7b" dmcf-pid="VKeDyqiBth" dmcf-ptype="general">알리바바는 개발자 터미널용 오픈소스 코딩 도구 '큐원 코드'(Qwen Code)도 함께 공개했다. 구글 제미나이 CLI를 기반으로 큐원3-코더 모델에 최적화한 형태의 코딩 도구로 명령줄 터미널에서 직접 실행된다.</p> <p contents-hash="e5a303c89a39ef3fc7bb43a36a0557871fbb8f8d981caa59cf6ea9a915d7b823" dmcf-pid="f9dwWBnbYC" dmcf-ptype="general">최근 알리바바의 큐원 시리즈와 딥시크 등 중국 AI 모델이 약진하고 있다. 스탠포드대 보고서에 따르면 중국과 미국 AI 모델 성능 격차는 2024년 1월 103포인트에서 2025년 2월 23포인트로 크게 줄었다.</p> <p contents-hash="db93cf4d8784122554f978b179059c8cb1b1cfdf7d9a8dc112629063266cf108" dmcf-pid="42JrYbLKXI" dmcf-ptype="general">ideaed@news1.kr<br><br><strong><용어설명></strong><br><br>■ 전문가 혼합(MoE)<br>전문가 혼합(Mixture-of-Experts)은 인공지능 모델의 효율성과 확장성을 극대화하기 위해 설계된 혁신적인 아키텍처다. 이 기법은 입력 데이터에 따라 특화된 하위 모델(전문가)을 선택적으로 활성화해 연산 비용을 절감하면서도 대규모 모델의 장점을 유지한다.<br><br>■ 코드 강화학습<br>코드 강화학습(Code RL)은 인공지능(AI) 모델이 다양한 코딩 과제를 스스로 해결할 수 있도록 강화학습(Reinforcement Learning·RL) 기법을 코딩 데이터와 문제에 적용하는 것을 의미한다.<br><br>■ 장기 강화학습<br>장기 강화학습(Agent RL)은 강화학습(Reinforcement Learning·RL)의 한 방식으로 모델이 단순히 한 번의 행동으로 보상을 받는 것이 아니라 여러 단계(다중 턴)에 걸쳐 의사결정을 하면서 최종 목표(장기적인 보상)를 달성하도록 학습하는 방법이다.<br><br> </p> </section> </div> <p class="" data-translation="true">Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.</p> 관련자료 이전 "SMR 특별법, 안보·경제·기후위기 세 토끼 잡는 법" 07-25 다음 [아시아롤러선수권] '프리스타일 슬라럼 친남매 듀오' 박민서-박성원, "많이 싸우기도 했는데 무사히 마쳐" 07-25 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.