독파모 추가공모 앞두고 '독자 LLM' 기준 논란 확산 작성일 02-20 37 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">Tri 21B Think 발표 계기, 성능 점수와 독자성 구분 요구 거세져</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="tQjr7xqFWa"> <figure class="figure_frm origin_fig" contents-hash="98e583c5a1b64df37cb1d1dd87a050c678b15b1afdc96122ce38e298586f16aa" dmcf-pid="FDW1dwiPvg" dmcf-ptype="figure"> <p class="link_figure"><img alt="류제명 과학기술정보통신부 2차관이 15일 서울 종로구 정부서울청사에서 독자AI 파운데이션 모델 프로젝트 1차 단계평가 결과를 발표하고 있다. [사진=연합뉴스]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160321770bvxh.jpg" data-org-width="640" dmcf-mid="YhFK9iV7Wf" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160321770bvxh.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 류제명 과학기술정보통신부 2차관이 15일 서울 종로구 정부서울청사에서 독자AI 파운데이션 모델 프로젝트 1차 단계평가 결과를 발표하고 있다. [사진=연합뉴스] </figcaption> </figure> <div contents-hash="ef6ecbaacba667ad61b2e6c66561eb5e8433bae12947fe2c6c4c21f7a8aaebfa" dmcf-pid="3wYtJrnQlo" dmcf-ptype="general"> 정부가 '모델 설계부터 프롬스크래치 사전학습까지의 전주기 독자 개발'을 핵심 요건으로 내건 독파모 추가 공모를 앞두고, 한 AI 기업의 모델 발표를 둘러싼 독자성 논란이 불거지고 있다. 인공지능 스타트업 트릴리온랩스가 지난 19일 자체 개발 모델 'Tri 21B 씽크(Think)'를 공개하면서 해당 모델이 강화학습을 적용한 고성능 추론 모델이라고 설명하면서부터다. <br> </div> <figure class="figure_frm origin_fig" contents-hash="4784f0e902f3d77ee834e70ce053f5dabcc6189e0c6f7c63b8381766d19d0944" dmcf-pid="0rGFimLxWL" dmcf-ptype="figure"> <p class="link_figure"><img alt="트릴리온랩스는 지난 19일 자체 개발 모델 ‘Tri 21B Think’를 공개하며 글로벌 AI 성능 평가 리더보드에서 상위 30위권에 진입했다고 밝혔다. [사진=트릴리온랩스]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160323031dila.jpg" data-org-width="640" dmcf-mid="GwjHXb5TlV" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160323031dila.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 트릴리온랩스는 지난 19일 자체 개발 모델 ‘Tri 21B Think’를 공개하며 글로벌 AI 성능 평가 리더보드에서 상위 30위권에 진입했다고 밝혔다. [사진=트릴리온랩스] </figcaption> </figure> <div contents-hash="cfcddf6d071973c0dfb6727260b82e762af7dd4b1f67d2a90cde6b0d35bdc1a4" dmcf-pid="pmH3nsoMyn" dmcf-ptype="general"> 트릴리온랩스는 자체 개발 모델을 통해 글로벌 리더보드인 AAII(Artificial Analysis Intelligence Index)에서 유의미한 점수를 확보했다고 밝혔으나, 메타(Meta)의 오픈소스 '라마(Llama)'를 기반으로 파인튜닝(미세조정)된 것 아니냐는 의문이 제기돼 논란이 일고 있다. 이를 둘러싸고 '독자 설계' 여부를 둘러싼 기술적 공방이 이어지고 있다. <br> </div> <figure class="figure_frm origin_fig" contents-hash="d04afb74d3f760977f0db9f472a4f631ed4910f7f7673826ef206ab0c029263f" dmcf-pid="UsX0LOgRyi" dmcf-ptype="figure"> <p class="link_figure"><img alt="트리B 씽크 [사진=트릴리온랩스]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160324300ursz.jpg" data-org-width="500" dmcf-mid="H1X86NQ9h2" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160324300ursz.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 트리B 씽크 [사진=트릴리온랩스] </figcaption> </figure> <p contents-hash="7d5d1142526d9578c7dcd52925837ca7794ea534247668985f3e8d48d3a06a32" dmcf-pid="uOZpoIaeCJ" dmcf-ptype="general">이번 논란은 최근 정부가 진행 중인 '독파모 추가공모'의 평가 요건과 맞물려 더욱 주목받고 있다. 정부는 이번 공모에서 AI 모델 개발과 관련해 ▲모델 설계부터 프롬스크래치(From Scratch) 사전학습까지의 전체 개발 역량 ▲HLE 등 글로벌 벤치마킹 결과 ▲AAII 등 글로벌 주요 리더보드 등재 ▲향후 한국 AI 생태계 기여 계획 등을 주요 요건으로 강조해왔다. </p> <p contents-hash="307685eb4cd9ffcfbc22305771b4b62652841d18636e815c4994e4c03317311f" dmcf-pid="7I5UgCNdWd" dmcf-ptype="general">업계 일각에서는 그간 프롬스크래치 역량을 강조해 오던 트릴리온랩스가 이러한 요건 발표 이후 모델 설계 역량을 강조하기 시작했으며, 19일에 맞춰 지금까지 없던 AAII 점수 확보 소식을 대대적으로 알린 점에 주목하고 있다. </p> <p contents-hash="624fee98f1b43284c4bbc3f43f8c37a7a63d4ea08cac4ddfd3d29fc6984e08f7" dmcf-pid="zC1uahjJTe" dmcf-ptype="general">업계 관계자는 "리더보드 점수는 파인튜닝 모델로도 충분히 확보될 수 있다"며 "점수 자체가 곧 독자 기초 모델 역량을 의미하는 것은 아니다"라고 주장했다. 또한 개발자 커뮤니티와 업계 전문가들은 공개된 데이터를 바탕으로 해당 모델이 완전히 독립적인 아키텍처인지에 대해 강한 의문을 표했다. AAII에 제출된 것으로 알려진 코드의 config.json 파일을 보면, 아키텍처 항목에 'LlamaForCausalLM', 모델 타입에 'llama'로 기재되어 있어 라마 기반 구조일 가능성이 있다는 점을 지적했다. 또한 허깅페이스(HuggingFace) 플랫폼에 등록된 모델 정보에도 'llama'와 'finetuned' 태그가 명시되어 있어 논란을 더했다. 이에 대해 일부 전문가들은 지난 19일 오후 늦게서야 허깅페이스 내 파일과 설명을 새롭게 업데이트하고, 독자 모델의 핵심이라 할 '모델링' 파일이 초기에는 누락됐다가 논란 이후에야 뒤늦게 추가됐다고 의문을 제기했다. </p> <p contents-hash="de2da034b053e4d20833d66291e018c2eaaec6a9c2628acad828dd1aaa2a3c42" dmcf-pid="qht7NlAiWR" dmcf-ptype="general">트릴리온랩스 측은 해당 의혹에 3가지를 들어 반박했다. 라마 시리즈에는 21B(210억 매개변수) 규모가 존재하지 않으므로 자사의 모델은 독자 아키텍처가 확실하고 오픈소스 생태계 확산과 편의를 위해 라마와 호환 가능하게 만들고 추론 코드를 차용한 것일 뿐이며, 토크나이저(Tokenizer)도 다르고, 21B 규모를 새로 설계했으므로 독자 모델이 맞다는 입장이다.</p> <p contents-hash="7795c184aca9aac3032a42f6a8d12576690ebaaea708a31da75146b47bcbb2ab" dmcf-pid="BlFzjScnvM" dmcf-ptype="general">트릴리온랩스의 이러한 해명에도 불구하고 일부 업계 관계자들은 여전히 의문이라는 입장이다. 사측의 해명만으로는 '독자 설계' 의혹을 온전히 해소하기에는 다소 부족하다는 평가다. 특히 독자모델이라고 강조했던 최신 70B 모델이 아닌 작년 여름에 개발했다는 21B모델을 가지고 막판에 AAII의 점수를 획득했다는 점도 의구심을 키웠다. </p> <div contents-hash="e5bc48dd59f948ed8936dcf83824005a70aeaa00a04f5890123f03cdd6aa9737" dmcf-pid="bS3qAvkLWx" dmcf-ptype="general"> 이와 관련해 트릴리온랩스 측은 아주경제에 "21B는 메타의 Llama 계열을 기반으로 한 파인튜닝 모델이 아니라, 가중치 초기화부터 독자적으로 학습한 프롬 스크래치(From Scratch) 모델"이라고 밝혔다. 그러면서도 "추론 과정에서 Llama의 오픈소스 추론 코드 일부를 활용한 바 있으며, 해당 사실은 명시적으로 공개됐다"고 설명했다. 다만 "모델 가중치나 학습 기반을 공유한 의미는 아니다"라며 "21B 싱크는 21B를 기반으로 강화학습 및 추가 파인튜닝을 거쳐 고도화한 모델"이라며 "외부 모델이 아닌 자체 개발 모델을 기반으로 발전시킨 계열 모델"이라는 입장이다. <br> </div> <figure class="figure_frm origin_fig" contents-hash="966ce8fdef3bfce94f524cd0547cc62561c780fe65e179b119b20dfa0e423859" dmcf-pid="KHqfmXOcvQ" dmcf-ptype="figure"> <p class="link_figure"><img alt="배경훈 부총리 겸 과학기술정보통신부 장관이 지난해 12월 30일 오후 서울 강남구 코엑스 오디토리움에서 열린 '독자 AI파운데이션 프로젝트' 발표회에서 축사를 하고 있다. [사진=유대길 기자 dbeorlf123@ajunews.com ]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160325582qnwu.jpg" data-org-width="640" dmcf-mid="XnspUP71C9" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/20/552779-26fvic8/20260220160325582qnwu.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 배경훈 부총리 겸 과학기술정보통신부 장관이 지난해 12월 30일 오후 서울 강남구 코엑스 오디토리움에서 열린 '독자 AI파운데이션 프로젝트' 발표회에서 축사를 하고 있다. [사진=유대길 기자 dbeorlf123@ajunews.com ] </figcaption> </figure> <div contents-hash="6527f5e4c10ff0c43f64c50265643deeb712cf543d1b5ad8c1002f530167225d" dmcf-pid="9XB4sZIkWP" dmcf-ptype="general"> <br>트릴리온랩스 측의 입장 발표에도 불구하고, 정책 목적에 합당하냐는 의문의 목소리가 나온다. 독파모는 단순한 지원 사업이 아니라 한국의 독자 LLM 역량을 확보하겠다는 국가 전략 사업이다. 만약 해외 기초모델에 의존한 파인튜닝 모델까지 독자 모델로 폭넓게 인정할 경우, 대규모 사전학습 인프라 구축과 아키텍처 설계 역량 축적이라는 정책 목표가 약화될 수 있다는 우려에서다. 전문가들은 "독자 모델의 범위를 어디까지 인정할 것인지, 프롬스크래치 사전 학습을 어떻게 검증할 것인지가 관건"이라면서 "명확한 기준 없이 리더보드 성과만 강조되면 국가 전략 사업의 정체성이 흔들릴 수 있다"고 지적한다. 독파모 추가공모는 단순한 기업 경쟁을 넘어 한국 AI 산업의 방향을 가늠하는 시험대이기 때문이다. </div> </section> </div> 관련자료 이전 불붙는 ‘웨어러블’ AI 기기 경쟁…‘포스트 스마트폰’ 선점 노려 02-20 다음 [박희범의 과학카페] 대통령과 KAIST 02-20 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.