서로 다른 AI 모델 간 ‘지식 이식’…추가 학습 필요 없어 작성일 01-27 40 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">KAIST, 학습된 지식 AI 모델끼리 공유 ‘트랜스미터’ 개발<br>반복적 학습 비용 줄여, 전문지식 손쉽게 추가 가능</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="xxxQe7ZvT1"> <figure class="figure_frm origin_fig" contents-hash="c0561f150d54c14237c4ae7d3a8995bfc100ba19f6b3a1f505232871982736f9" dmcf-pid="yyyTGkiPC5" dmcf-ptype="figure"> <p class="link_figure"><img alt="서로 다른 AI 모델 간 지식 이식 모습으로, AI가 그린 일러스트." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/27/dt/20260127165543670xdzs.jpg" data-org-width="640" dmcf-mid="PJ03uSDgyF" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/27/dt/20260127165543670xdzs.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 서로 다른 AI 모델 간 지식 이식 모습으로, AI가 그린 일러스트. </figcaption> </figure> <p contents-hash="02d4101d4cbb8703f11f2417f6791582c64c0e63d87c4fd8d9e4d0bbe19bf8a2" dmcf-pid="W003uSDglZ" dmcf-ptype="general"><br> 새 스마트폰으로 교체할 때마다 기존에 저장돼 있는 연락처와 사진을 옮겨야 한다면 얼마나 불편할까. 지금의 인공지능(AI) 모델들이 이와 비슷한 상황에 놓여 있다.</p> <p contents-hash="c4762d8556422be9a5bb3bb7f3ef8f8b5f7683486ff21ac7aed2dab492c86443" dmcf-pid="Ypp07vwaSX" dmcf-ptype="general">성능이 더 좋은 새로운 챗GPT 같은 AI 모델이 나올 때마다 특정 분야의 지식을 확보하기 위해 데이터와 비용을 추가로 들여 다시 학습시켜야 하기 때문이다.</p> <p contents-hash="b54f6262a1c43b77da93f5e5fbeb5de2caee14e9c6399a0c97535126c9276dd7" dmcf-pid="GUUpzTrNvH" dmcf-ptype="general">국내 연구진이 AI 모델 간 이런 비효율을 해결할 수 있는 ‘지식 이식’ 기술을 개발했다. AI 모델이 바뀌어도 기존 지식을 다시 학습시키지 않고 전달만 하면 성능 좋은 AI 모델로 빠르게 활용할 수 있게 된다.</p> <p contents-hash="2d1f943c79318002935d17152717878f8d93eb9618ada1d70e88d6794337f581" dmcf-pid="HuuUqymjCG" dmcf-ptype="general">KAIST는 김현우 전산학부 교수 연구팀이 고려대 연구팀과 함께 서로 다른 AI 모델 간에도 학습된 지식을 그대로 전달할 수 있는 ‘트랜스미터’(TransMiter)를 개발했다고 27일 밝혔다.</p> <p contents-hash="00508af71592be9a18e3f10d50697721d4547519ace409911281b6e868ef625b" dmcf-pid="X77uBWsAvY" dmcf-ptype="general">최근 AI 분야에서 사진과 글을 함께 이해하는 시각-언어모델(VLM)은 대규모 이미지와 언어 데이터로 사전 학습해 소량의 데이터만으로도 새로운 분야에 비교적 빠르게 적응한다.</p> <p contents-hash="72694f036b05a5911beef84253d7260eed4055e563b51c27d5d67767c1db7f5d" dmcf-pid="Zzz7bYOcvW" dmcf-ptype="general">하지만, 새로운 AI 모델이 등장할 때마다 이런 적응 과정을 반복해야 하는 비효율성 문제가 지속적으로 지적돼 왔다. 기존 적응 모듈들은 모델 구조가 달라지면 그대로 활용하기 어렵거나, 추가 학습이나 여러 모델을 동시에 사용해야 하기 때문에 메모리와 연산 비용이 크게 증가하는 한계를 안고 있었다.</p> <p contents-hash="a1caa0cb1a313f42142a7ec06dd973ce109552ea7874e61317380be18db5b120" dmcf-pid="5qqzKGIkly" dmcf-ptype="general">연구팀은 모델 구조나 크기에 상관없이 학습된 지식을 재사용할 수 있는 ‘전이 가능한 적응 기법’을 개발했다. 이 기술은 특정 AI가 학습을 통해 쌓은 적응 경험을 다른 AI 모델로 직접 전달하는 방식이다.</p> <p contents-hash="c8a408abeba37ce1d41c1843adce725ec4c809d2d6561b219e19311a1fc431d7" dmcf-pid="1BBq9HCECT" dmcf-ptype="general">가령, 서로 생김새가 다른 AI 모델이라도 같은 질문에 내놓은 답변을 기준으로 정리해 주면, 특정 AI가 익힌 노하우를 다른 AI도 공유해 활용할 수 있는 것이다. 비유하자면 경력 직원이 자신이 쌓은 경험과 노하우를 신입 직원에게 그대로 전달해 새로운 학습 과정 없이 빠르게 업무에 적응할 수 있게 하는 방식이다.</p> <p contents-hash="e16683169d4004ee9a1d52ae761815f02eb1fd07d0721ec5a875d50fa020ec86" dmcf-pid="tbbB2XhDvv" dmcf-ptype="general">그동안 AI 모델 구조나 크기가 다르면 재사용이 거의 불가능한 것으로 여겨졌던 AI의 적응 지식을 모델 종류에 상관없이 정밀하게 전수할 수 있음을 입증한 연구라고 연구팀은 설명했다.</p> <p contents-hash="bc2706e45d832ff358d69b91ded226c1f39edfb04429cdee21d73b8bf196cc55" dmcf-pid="FKKbVZlwSS" dmcf-ptype="general">김현우 KAIST 교수는 “이번 연구를 확장하면 빠르게 발전하는 초거대 언어 모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training) 비용을 크게 줄일 수 있고, 특정 분야 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 말했다.</p> <p contents-hash="194cb6f54684e6672e68c9fbe9add95d1ff21375d96812edd4d0391f12176061" dmcf-pid="399Kf5SrCl" dmcf-ptype="general">연구결과는 지난 25일 AI분야 국제 학술대회 ‘AAAI 2026’에서 발표됐다.</p> <figure class="figure_frm origin_fig" contents-hash="56f7dd94c467a9e4ba5ee6563382ff57197010e9639a720a6699916dde7a16c2" dmcf-pid="022941vmTh" dmcf-ptype="figure"> <p class="link_figure"><img alt="김현우(왼쪽부터) KAIST 교수, 이상혁 박사후연구원, 송태훈 석사과정 학생, 박지환 고려대 박사과정생. KAIST 제공." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/27/dt/20260127165544947cbvx.jpg" data-org-width="604" dmcf-mid="QnAjEQb0Ct" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/27/dt/20260127165544947cbvx.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 김현우(왼쪽부터) KAIST 교수, 이상혁 박사후연구원, 송태훈 석사과정 학생, 박지환 고려대 박사과정생. KAIST 제공. </figcaption> </figure> <p contents-hash="4a1c48fd0f054c722b918b78324818b6cf8d65d978d0fde2088c461db31cca04" dmcf-pid="pVV28tTsWC" dmcf-ptype="general"><br> 이준기 기자 bongchu@dt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털타임스. 무단전재 및 재배포 금지.</p> 관련자료 이전 '月결제한도 100만원'…웹보드 규제 풀렸다 01-27 다음 탁구 주천희, 종합선수권 2관왕…한국거래소, 남자단체전 우승 01-27 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.