‘독파모’ 데뷔 준비하는 NPU… 대규모 실증 앞서 넘어야 할 산은? 작성일 02-08 43 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="VysZFbRfld"> <figure class="figure_frm origin_fig" contents-hash="559d188132870d4c85ac7764dbd901180cc2882c1af76456280c942ad255d144" dmcf-pid="fWO53Ke4ye" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/08/seouleconomy/20260208080124531pwgx.jpg" data-org-width="620" dmcf-mid="2hREmypXyJ" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/08/seouleconomy/20260208080124531pwgx.jpg" width="658"></p> </figure> <p contents-hash="2e07cb6a15b003ecba9cb7bf7398b635b2465c63146b1da1d7245c6dcb6bd1c5" dmcf-pid="4YI109d8WR" dmcf-ptype="general"><br> ‘독자 인공지능(AI) 파운데이션 모델(독파모)’ 프로젝트가 2라운드를 앞두고 사업 참여 컨소시엄들이 한국 스타트업의 신경망처리장치(NPU)를 사용하려는 움직임이 감지된다. 정부가 연일 AI 기술 주권을 강조하자 AI 모델 개발에도 국산 AI 반도체를 쓰려는 것이다. 국산 NPU의 실용성에 드리워진 의구심은 해결해야 할 숙제다.<br><br> 8일 업계에 따르면 독파모 프로젝트에 도전하는 LG AI연구원 컨소시엄은 향후 퓨리오사AI의 2세대 NPU 제품 레니게이드(RNGD)를 ‘K-엑사원’ 개발에 투입하는 방안을 논의 중이다. 독파모 프로젝트 투입 전 RNGD의 실용성을 검증하는 역할은 컨소시엄 일원인 LG CNS(LG씨엔에스)가 맡는다. LG CNS는 지난달 30일 퓨리오사AI와 업무협약을 맺고 LG CNS의 AI 서비스를 구동하는 데 RNGD를 쓰기로 했다. LG CNS는 이 과정에서 효율적인 AI 모델 개발을 위한 RNGD의 활용 방안을 검증할 예정이다.<br><br> 독파모 재도전 의사를 밝힌 트릴리온랩스 컨소시엄은 프로젝트에 정식 합류할 경우 국산 NPU를 활용하는 방향으로 내부 의견을 모았다. 컨소시엄 주관사인 트릴리온랩스는 과거 리벨리온의 NPU를 활용해 AI 모델을 개발한 경험이 있다. 이번 독파모 프로젝트 재도전에서 당시 쌓은 경험과 노하우를 살리겠다는 구상이다.<br><br> 독파모 컨소시엄들이 국산 NPU 채택을 적극 타진하는 이유는 정부의 정책 취지에 부합하려는 모습을 강조하기 위함이다. 독파모 주관 부처인 과학기술정보통신부는 독파모 프로젝트를 기획할 때부터 연일 AI 기술 주권을 강조하고 있다. AI 모델 설계 방식뿐만 아니라 모델 개발에 필요한 인프라 자원까지 국산화를 시도하는 것이다.<br><br> 다만 국산 NPU가 독파모 개발에 부합한 지에 대한 우려는 남아있다. AI 초기 모델을 만드는 프로젝트에 대규모 데이터 훈련용으론 적합하지 않은 NPU를 투입하면 오히려 모델 개발 효율성이 떨어진다는 지적이다. 익명을 요구한 독파모 프로젝트 참가 스타트업 대표는 “국산화에 연연하기보다 정부가 지원하는 그래픽처리장치(GPU)를 충분히 활용해 성능이 우수한 AI 모델 결과물을 만들어내는 게 급선무”라는 의견을 전했다.<br><br> 최적화 오퍼레이터 기반이 약하다는 점도 NPU가 넘어야 할 산이다. 오퍼레이터는 AI 반도체 자원을 자동으로 배분하고 관리하는 소프트웨어를 뜻한다. 서버 이용자가 AI 반도체 성능을 최대한 끌어 올려 활용할 수 있도록 돕는 도구인데 대부분의 오퍼레이터 소프트웨어는 엔비디아 GPU에 맞춰 설계돼 있다. 이 때문에 전성비가 좋은 NPU를 쓰고 싶어도 오퍼레이터가 마땅치 않아 최적의 전성비를 누리지 못한다는 지적이 제기된다.<br><br> 한 클라우드 서비스 기업 관계자는 “1명이 서버 인프라를 사용하는 환경에선 NPU의 전력 대비 성능비가 GPU 전성비를 뛰어넘지만 대규모 인프라 환경에서는 최신 아키텍처의 GPU의 전성비가 더 우세하다”고 귀띔했다.<br><br> 김태호 기자 teo@sedaily.com</p> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 "살아남으려면 팔란티어처럼" 테크업계에 부는 '현장 엔지니어' 바람 02-08 다음 [표지로 읽는 과학] 미식축구 헬멧에 숨은 충격 흡수의 비밀 02-08 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.