4000장 GPU 지원받는 학계, “GPU 많아도 소용없다”…집중 배분·운영 전략이 성패 좌우 작성일 03-18 23 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">LLM·피지컬AI 고려한 효율적 자원 활용 필요</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="bdouCqe4C4"> <figure class="figure_frm origin_fig" contents-hash="ad96f13f8e9e9b775c542c66b1a54f166e107c90a0b5e0d30995d716eff01560" dmcf-pid="KJg7hBd8lf" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/18/552796-pzfp7fF/20260318142015583symj.jpg" data-org-width="640" dmcf-mid="BCTJuLIky8" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/18/552796-pzfp7fF/20260318142015583symj.jpg" width="658"></p> </figure> <p contents-hash="b96e3e86bc7fa74199055b2183d68b48f7abfc497871f58bc2b34773e15d96b9" dmcf-pid="9iazlbJ6CV" dmcf-ptype="general">[디지털데일리 구아현기자] 과학기술정보통신부가 국내 산학연 인공지능(AI) 연구개발 역량 강화를 위해 4000장 규모 그래픽처리장치(GPU) 지원하는 사업이 본격 진행되고 있다. 이 가운데 AI 연구자들은 자원 규모보다 집중 배분 방식과 운영 전략이 더 중요하다고 강조했다.</p> <p contents-hash="2efe2819f72af52b511b34d0fc16b23baba3ad8577eed570b454c0b3f1102d3e" dmcf-pid="2nNqSKiPh2" dmcf-ptype="general">정부는 ‘AI 고속도로 구축’을 핵심 국정과제로 삼고 GPU 공급을 확대하고 있다. 2025년 추가경정예산으로 첨단 GPU 1만3000장을 확보했다. 올해도 2조800만원 규모 첨단 GPU 확보를 추진 중이다.</p> <p contents-hash="65670335b497c3121ff8003a645da72aede2217970b64392b8c2e2df10cd832b" dmcf-pid="VLjBv9nQy9" dmcf-ptype="general">중소·스타트업 등 산업계에 GPU 1060장 이상을 공급하는 ‘고성능컴퓨팅지원사업’은 다음 달 16일까지, 학계·연구계에 960장 이상을 공급하는 ‘AI연구용컴퓨팅지원프로젝트 사업’은 내달 6일까지 각각 클라우드 서비스 공급사(CSP) 공모를 받는다. 정부 보유 GPU 2000장 이상을 산업계 단기 수요(4개월 이내) 중심으로 배분하는 2차 사용자 공모도 이달 30일까지 병행한다. 4월 초 공급을 목표로 한다.</p> <p contents-hash="6cff216b40d8943fc491bf4f9a404191bf728b8bec5a1842230f602d3461cef9" dmcf-pid="foAbT2LxWK" dmcf-ptype="general">학계·연구계 전문가들은 GPU 장수보다 배분 방식이 관건이라고 입을 모았다. 신진우 KAIST 교수는 “대형언어모델(LLM)을 처음부터 학습시키려면 최소 500장 이상이 필요하다”며 “학계에 배분되는 960장은 1~2팀에서 많아야 5팀 정도를 지원할 수 있는 규모”라고 말했다.</p> <p contents-hash="13f89f772f435bfecbcbcfd6d40e94ed24ec0b808cc248052184c5e6af134e2b" dmcf-pid="4mhM3drNlb" dmcf-ptype="general">GPU는 분산이 아니라 집중해야 대형 모델 학습이 가능하다. LLM뿐 아니라 영상 모델, 피지컬 AI 등 다양한 분야에 골고루 지원이 이뤄져야 한다는 목소리도 나왔다. </p> <p contents-hash="c08efa94e117f4204e28063ba0890d607002259b99715ff999f6cd52e5a1441d" dmcf-pid="8slR0JmjhB" dmcf-ptype="general">익명을 요청한 AI 분야 교수는 “연구실 단위 고정 배정보다 이용권(크레딧) 형태 배분이 효율적”이라며 “짧은 시간에 집중 사용하는 동적 할당 스케줄링을 도입해야 한다”고 제언했다. 크레딧 방식은 민간 클라우드 업체가 대학 연구자에게 GPU·TPU 등을 자유롭게 쓸 수 있도록 지급하는 방식과 비슷한 방식이다.</p> <p contents-hash="8c89980aa319fc4554fdabae3f4507c52b8aca345001d1e93b50fcb1f9a1a9ac" dmcf-pid="6OSepisAhq" dmcf-ptype="general">반면 클라우드 임차 방식의 한계도 지적됐다. 인터넷을 거치는 클라우드는 통신 지연(레이턴시)이 커 로봇을 실시간 구동해야 하는 피지컬 AI 분야 연구에는 적합하지 않다는 것이다. 이 교수는 “클라우드 지원을 받는다는 이유로 개별 GPU 구매 지원이 차단되는 상황은 피해야 한다”며 “피지컬 AI 연구를 위한 시스템 방식도 필요하다” 덧붙였다.</p> <p contents-hash="882864da2ee97870b0e5aa79a4c73d6db1c85055bbcbf789dced04609d34cf69" dmcf-pid="PIvdUnOcvz" dmcf-ptype="general">성과 관리의 중요성도 강조됐다. 신 교수는 “코드 공개나 논문 게재에 그치지 않고, 누구나 접속해 써볼 수 있는 서비스 형태로 공개돼야 한다”고 말했다. 세금이 투입되는 만큼 국민이 직접 체감할 수 있는 사후 관리와 지속성이 필요하다는 취지다.</p> <p contents-hash="8826eeb48edcadb29b4e4909d805461ffd8c88a0c599ad3b4e5cdcabff634656" dmcf-pid="QCTJuLIky7" dmcf-ptype="general">또 다른 AI 교수는 “GPU 인프라는 투입한 세금 대비 효과가 가장 확실한 분야”라며 “많으면 많을수록 좋다”고 말했다. 이어 “빅테크 기업에서는 연구자 한 명당 GPU 1000장을 쓰는 곳도 있는 만큼, 향후 1만 장, 10만 장으로 지원을 늘려가야 한다”고 강조했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털데일리. All rights reserved. 무단 전재 및 재배포 금지.</p> 관련자료 이전 방미통위, 디지털 크리에이터미디어에 85억 투입… 청년 일자리 창출 총력 03-18 다음 통신사기피해환급법 개정···거래소에 보이스피싱 상시 감시 의무 부여 03-18 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.