AI도 ‘경력직’ 시대…학습된 지식 ‘새 AI’와 쉽게 합친다 작성일 01-27 62 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">- KAIST-고려대, 재학습할 필요없는 ‘지식 이식’ 기술 개발 <br>- 서로 다른 AI 모델 간에도, 학습된 지식 그대로 전달 가능</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="GOEOtJ4qZx"> <figure class="figure_frm origin_fig" contents-hash="7377fb22a44fd837e1be4a0db9584d06b9879420d881f3c77d768283aae0da9f" dmcf-pid="HIDIFi8B5Q" dmcf-ptype="figure"> <p class="link_figure"><img alt="AI가 새로운 AI에 지식을 전수하는 이미지. [KAIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/27/ned/20260127081842501wjir.jpg" data-org-width="1280" dmcf-mid="Wk8RwuXSXR" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/27/ned/20260127081842501wjir.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> AI가 새로운 AI에 지식을 전수하는 이미지. [KAIST 제공] </figcaption> </figure> <p contents-hash="2f45236efd3c31746e4a033a8c099adb757ace1baf79589adaf271be759bb961" dmcf-pid="XCwC3n6b5P" dmcf-ptype="general">[헤럴드경제=구본혁 기자] 새 스마트폰을 바꿀 때마다 연락처와 사진을 처음부터 다시 옮겨야 한다면 얼마나 불편할까. 지금의 인공지능(AI) 모델들도 이와 비슷한 상황에 놓여 있다. 성능이 더 좋은 새로운 ChatGPT 같은 AI 모델이 등장할 때마다, 특정 분야의 지식을 갖추기 위해 막대한 데이터와 비용을 들여 다시 학습해야 했기 때문이다. 국내 연구진이 이러한 비효율을 일거에 해결할 수 있는 AI 모델 간 ‘지식 이식’ 기술을 개발했다.</p> <p contents-hash="a7023b10d32b55bacfc06cf31f6ad61bea7f7f79a8c8170cf075b637d8184c2b" dmcf-pid="Zhrh0LPKX6" dmcf-ptype="general">KAIST는 전산학부 김현우 교수 연구팀이 고려대학교와 공동연구를 통해, 서로 다른 인공지능 모델 사이에서 학습된 지식을 효과적으로 ‘이식’할 수 있는 새로운 기술을 개발했다고 27일 밝혔다.</p> <p contents-hash="e4957c3f8a502d03b6c63e1d862133574508d18b835d10cadbb40635ff31d9f7" dmcf-pid="5lmlpoQ9Y8" dmcf-ptype="general">최근 인공지능 분야에서는 사진과 글을 함께 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 발전하고 있다. 이는 사용자가 사진을 보여주며 질문하면 설명을 해주는 ChatGPT와 같은 멀티모달 AI를 떠올리면 이해하기 쉽다. 이러한 모델들은 대규모 이미지와 언어 데이터를 사전 학습해, 적은 양의 데이터만으로도 새로운 분야에 비교적 빠르게 적응할 수 있다는 장점을 지닌다.</p> <p contents-hash="6c7bcce80d3ae59de8b6db7684a757d6ddf1b01f8a656e684cee1e680e62f908" dmcf-pid="1SsSUgx2H4" dmcf-ptype="general">그러나 새로운 AI 모델이 나올 때마다 이러한 ‘적응 과정’을 처음부터 다시 수행해야 한다는 점이 큰 비효율로 지적돼 왔다. 기존 적응 기법들 역시 모델 구조가 조금만 달라져도 그대로 활용하기 어렵거나, 여러 모델을 동시에 사용해야 해 메모리와 연산 비용이 크게 증가하는 한계를 안고 있었다.</p> <p contents-hash="5a40bea92c19c953e74b1b41ed61e334efc5c2039af24cb2fac90166dd204733" dmcf-pid="tvOvuaMVZf" dmcf-ptype="general">연구팀은 이러한 문제를 해결하기 위해 모델의 구조나 크기에 상관없이 학습된 지식을 재사용할 수 있는 전이 가능한 적응 기법(Transferable adaptation)인 ‘TransMiter’를 제안했다. 이 기술의 핵심은 한 AI가 학습하며 쌓은 ‘적응 경험’을 다른 AI 모델로 직접 옮기는 것이다.</p> <p contents-hash="b8b6b9bfd18e1b814a730d39283fc3a9dba72771f20bbd6073852b2b81bf37e9" dmcf-pid="Fz3zeTrN1V" dmcf-ptype="general">이 기술은 AI의 복잡한 내부 구조를 뜯어고치지 않고, 예측 결과(output)만 보고 배운 요령을 다른 AI에게 전해주는 방식이다. 서로 생김새가 다른 AI 모델이라도 같은 질문에 내놓은 답변을 기준으로 정리해 주면, 한 AI가 익힌 노하우를 다른 AI도 바로 활용할 수 있다. 그래서 복잡하고 시간이 많이 드는 학습 과정을 다시 거칠 필요가 없고, 속도도 거의 느려지지 않는다.</p> <figure class="figure_frm origin_fig" contents-hash="aceb33e24c7638bd80de1cc5deab7f8b20590fece8ad7efc77916b3f432330ee" dmcf-pid="3q0qdymjZ2" dmcf-ptype="figure"> <p class="link_figure"><img alt="이번 연구를 수행한 연구진. 김현우(왼쪽부터) KAIST 교, 이상혁 KAIST 박사후연구, 송태훈 KAIST 석사, 박지환 고려대학교 박사과정.[KAIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/27/ned/20260127081842721nxwb.jpg" data-org-width="604" dmcf-mid="YR0qdymjYM" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/27/ned/20260127081842721nxwb.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이번 연구를 수행한 연구진. 김현우(왼쪽부터) KAIST 교, 이상혁 KAIST 박사후연구, 송태훈 KAIST 석사, 박지환 고려대학교 박사과정.[KAIST 제공] </figcaption> </figure> <p contents-hash="d1851b4828eb7366c6f28ea466126ba95a6a253eae9140cc9460813c88530962" dmcf-pid="0BpBJWsAH9" dmcf-ptype="general">이번 연구는 그동안 모델 구조나 크기가 다르면 재사용이 거의 불가능하다고 여겨졌던 AI의 적응 지식을 모델 종류에 상관없이 정밀하게 이식할 수 있음을 처음으로 입증했다는 점에서 의미가 크다. 이를 통해 반복적인 학습 비용을 줄일 수 있을 뿐 아니라, 필요한 분야에 맞춰 거대언어모델을 실시간으로 업데이트하는 이른바 ‘지식 패치(patch)’ 기술로의 활용도 기대된다.</p> <p contents-hash="beebf2890cdd601177dd3ceaba83bfd668d197f21d7c3f9550ed81fe4bf6672f" dmcf-pid="pbUbiYOc5K" dmcf-ptype="general">김현우 교수는 “이번 연구를 확장하면, 빠르게 발전하는 초거대언어모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training)의 비용을 크게 줄일 수 있다”며 “특정 분야의 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 설명했다.</p> <p contents-hash="de9cfbfb4e5c77964b8e7a942f15dce5722a10903448b7bc4a919346dfe240bc" dmcf-pid="UKuKnGIktb" dmcf-ptype="general">이번 연구결과는 인공지능 분야 최고 권위 국제학술대회 ‘AAAI 2026’에 채택됐다.</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 '흑백요리사2' 악마의 편집 폭로 나왔다…정호영 "부려 먹은 거 아냐" (라스) 01-27 다음 ‘8차투어 64강 탈락’ 딛고 일어선 ‘당구여제’ 김가영, 32강 안착… LPBA 간판스타 대거 합류 01-27 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.