[테크다이브] '엔비디아판' AI 인프라, 온프레미스 서버가 ASIC 대안으로 작성일 02-19 43 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="u5fkV4pXCb"> <figure class="figure_frm origin_fig" contents-hash="febd0677efe4bc5bb129d7ed1d2074a8c49f7d16a4d84e763f48de1db264b9e2" dmcf-pid="7kGfYHsATB" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/19/552796-pzfp7fF/20260219171701417ypfr.png" data-org-width="640" dmcf-mid="U4OUsIaeSK" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/19/552796-pzfp7fF/20260219171701417ypfr.png" width="658"></p> </figure> <p contents-hash="bdd141c8b87a99f6e0f78256a07887bdea42598b9eac5ed862186d6dbb6b23c2" dmcf-pid="zEH4GXOcWq" dmcf-ptype="general">[디지털데일리 고성현기자] 판도가 넓어지는 인공지능(AI) 인프라 시장의 최대 화두는 역시 비용입니다. GPU와 같은 AI 전용 하드웨어와 전력 사용량 등 막대한 비용을 어떻게 줄이느냐가 핵심이죠. AI 주도권을 잡기 위한 출혈 경쟁에서 서비스 중심의 시대로 전환해가는 만큼, 안정적인 총소유비용(TCO) 구조를 갖춰야만 장기적인 미래를 그릴 수 있습니다.</p> <p contents-hash="6cd590f979b4bbd5c2ce4e204b66fc0f61c422adb24991419173ec3a08ea18d0" dmcf-pid="qDX8HZIkCz" dmcf-ptype="general">문제는 이 비용 구조를 근본적으로 낮추기 어렵다는 점입니다. 전력 소모를 줄이고 장비 투자 부담을 낮추려면 결국 핵심 부품인 반도체 가격이 낮아져야 합니다. 하지만 높은 생산 난이도와 낮은 수율로 인한 부족한 공급, 엔비디아와 같은 핵심 기업에 쏠린 수요가 가격 상승을 부추기고 있죠.</p> <p contents-hash="f5e367801fb74c032cbb665709c2c581d6460953f875147f9f789355c98ddd70" dmcf-pid="BwZ6X5CEW7" dmcf-ptype="general">이러한 상황에서 대안으로 거론되는 것이 주문형 반도체인 ASIC입니다. 맞춤형 반도체를 활용하면 엔비디아 GPU가 갖춘 범용성을 일부 포기하는 대신 전력 효율과 특정 영역에서의 성능을 높여 대응할 수 있죠.</p> <p contents-hash="148c8176c801871ae149b424c414ebb7e7cd9f33e139738016146bd739a90685" dmcf-pid="br5PZ1hDyu" dmcf-ptype="general">신경망처리장치(NPU), 텐서처리장치(TPU) 등으로 불리는 AI용 ASIC은 범용성과 개발 편의성에서 엔비디아 GPU보다 떨어지는 모습을 보입니다. GPU가 높은 병렬 연산 능력을 기반을 갖춘 데다 고대역폭메모리(HBM), NV링크, 인피니밴드 등 강력한 데이터 고속 이동 구조와 확장성을 갖추고 있어서죠. 이미 표준으로 굳어져버린 쿠다(CUDA)와 cuDNN 등 개발 플랫폼·라이브러리 호환성을 가진 점도 GPU 생태계를 벗어나지 못하는 이유 중 하나입니다.</p> <p contents-hash="21103226c3bde0d69548092b00573fbd4400f8708645eb7c94edd1fd710118c3" dmcf-pid="Km1Q5tlwSU" dmcf-ptype="general">AI 서비스를 직접 제공하는 영역인 추론(Inference)에서는 사뭇 다릅니다. 학습이나 모델 구축에 있어서는 범용 구조인 GPU의 자원을 최대한 활용해야 하지만, 반복 요청과 특정 연산 패턴이 굳어진 추론은 이를 전부 활용할 필요가 없죠. 성능은 충분하나 과잉 자원 낭비가 발생하게 되는 겁니다. 이는 곧 극도의 저전력으로 특정 AI 워크로드에 집중하는 ASIC 진영이 유리해질 수 있는 구조라는 뜻이기도 합니다.</p> <p contents-hash="21b6a6dc1f6f0b73a6a982011271d656e0460ce677c1256f6ce05937955696dc" dmcf-pid="9stx1FSrWp" dmcf-ptype="general">추론에서 곧바로 ASIC이 힘을 발휘할 수 있느냐, 라고 물어본다면 그렇지는 않습니다. 결국 GPU보다 부족한 범용성·호환성 문제로 곧바로 이를 적용하기는 어렵죠. 특히 xPU가 수십대 장착된 서버 랙(Rack)을 계속해서 늘려나가는 클라우드 서비스 기반의 AI 데이터센터에서는 더욱 진입장벽이 높을 수밖에 없습니다.</p> <p contents-hash="02edaed1bf5f43990bf88a3f387ed8f3beb6f036ef466071917590ff0b64558c" dmcf-pid="2OFMt3vmv0" dmcf-ptype="general">반대로 온프레미스(On-premise)에서는 ASIC 진영에게 기회가 있습니다. 규모가 한정된 데다 특정 AI 작업에 주로 활용을 하고, 대규모 클라우드 서비스보다 높은 비용 효율성을 요구하기 때문입니다.</p> <p contents-hash="41625f2d099465312060a7406b1fcf070e8fc4f189c445f48a29d3e942ba47b2" dmcf-pid="VI3RF0TsC3" dmcf-ptype="general">온프레미스는 외부 클라우드가 아닌 기업, 기관 내부 전산 환경에 직접 구축하는 서버 인프라입니다. 데이터 보안 요구가 높아 클라우드 서비스 활용이 어려운 금융이나 공공 의료 등에 주로 구축돼 왔습니다.</p> <p contents-hash="a60f360383cae45d3ddf3c935130e0411ed440152152329d330c2a8a3f8a9d4d" dmcf-pid="fC0e3pyOWF" dmcf-ptype="general">최근에는 AI 서버를 온프레미스 환경으로 구축하려는 수요가 늘어나고 있습니다. 클라우드 서비스를 기반으로 AI 모델을 활용하려면 비용이 막대한 탓에 자체적으로 이를 구축해 효율성을 높이려는 겁니다. AI 비전 인식이 필요하나 보안이 요구되는 관제 영역, 음성 인식 기반 서비스를 제공하는 AI 콜센터, 이외 자체 제품의 AI 검사·진단이 필요한 산업 등이 대표적인 사례죠.</p> <p contents-hash="fa0716a5aec5db5031f5d0730a4901f2de2c5da457088ef1446fa1910981eca6" dmcf-pid="4TzL7qXSSt" dmcf-ptype="general">온프레미스 서버 시장 역시 GPU 의존도가 매우 높은 시장입니다. 대부분 AI 인프라 시스템을 엔비디아의 GPU가 독점하고 있는 상황이죠. 다만 고가의 GPU로 온프레미스 본래 목적인 비용 절감을 달성하기 어렵다 보니 ASIC을 적용하려는 움직임이 일어나고 있습니다. 하이퍼스케일급 데이터센터보다 확장성과 요구 성능이 제한적인 점도 신규 ASIC 진입을 가능케 하는 요소로 꼽힙니다.</p> <p contents-hash="c8fb03151eb2a4881489b6a8ce4c5d63718a31acf6843f1ab94eb5f21907f8f1" dmcf-pid="8yqozBZvC1" dmcf-ptype="general">글로벌 기준으로도 이 시장을 노리는 ASIC 진영의 움직임이 엿보입니다. 유럽 팹리스 스타트업인 악셀레라 AI(Axelera AI), 미국의 시마AI(SiMa.ai)가 온프레미스와 온디바이스를 겨냥한 칩 개발을 진행 중입니다. 하이퍼스케일급 데이터센터 AI가속기를 만드는 텐스토렌트도 잠재적 진입 가능성이 있다고 평가 받습니다.</p> <p contents-hash="0f977033551f3fe53caa1bcf2ab396574a2d02131c32f8be531ac28f59dbdabb" dmcf-pid="6WBgqb5TS5" dmcf-ptype="general">국내에서는 모빌린트가 온프레미스 시장을 겨냥한 제품군을 내놓고 있습니다. 1세대 칩인 에리스(ARIES)를 통해 온프레미스와 같은 엣지(Edge) 서버 시장을 공략하는 중입니다. 리벨리온도 국내를 중심으로 온프레미스 AI 서버 솔루션 협력에 나서는 등 잠재적인 진입을 노리고 있습니다.</p> <p contents-hash="7f21d522803a6736822323760589700adec5e751be567cbded214d5b4cbb872d" dmcf-pid="PYbaBK1ylZ" dmcf-ptype="general">온프레미스 서버에 적용될 AI ASIC의 핵심은 범용성입니다. GPU 수준의 범용성을 요구하지는 않으나, 여러 AI 모델을 복합해 돌릴 수 있는 정도의 연산능력과 호환성을 요구하는 거죠. 특히 최신 모델 구동, 기존 모델의 업데이트를 따라잡을 수 있는 안정적인 아키텍처가 ASIC 진영 확대 첫 과제가 될 것으로 보입니다.</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털데일리. All rights reserved. 무단 전재 및 재배포 금지.</p> 관련자료 이전 中 공세 턱밑까지 쫓아왔다…TCL, 12월 삼성전자 제치고 글로벌 TV 1위 02-19 다음 최민정 '노련함' 김길리 '폭발력'…원팀으로 일군 금빛 질주 02-19 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.