구글 AI칩, 학습·추론 쪼갰다⋯ 빅테크, 脫엔비디아 ‘추론칩 전쟁’ 점화 작성일 04-23 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="H9KLfd5Tvd"> <figure class="figure_frm origin_fig" contents-hash="9bb4fad5771cc2da8ba723e81d4004b0acd7cc2287a979d0c674553526a3c35e" dmcf-pid="X29o4J1yTe" dmcf-ptype="figure"> <p class="link_figure"><img alt="챗 GPT를 통해 생성한 ‘빅테크의 탈엔비디아 가속화' 이미지." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/23/552787-G8RRw8K/20260423153527836drst.png" data-org-width="640" dmcf-mid="G6cYwvMVCJ" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/23/552787-G8RRw8K/20260423153527836drst.png" width="658"></p> <figcaption class="txt_caption default_figure"> 챗 GPT를 통해 생성한 ‘빅테크의 탈엔비디아 가속화' 이미지. </figcaption> </figure> <p contents-hash="edf5410f526092bde6100ee88a80a8d6ccf91840bb8930ab169d0e1fa04f9c82" dmcf-pid="ZXH91qmjTR" dmcf-ptype="general"> 구글이 학습과 추론을 분리한 ‘8세대 텐서처리장치(TPU)’를 공개하며 인공지능(AI) 반도체 시장의 탈엔비디아 속도를 높이고 있다. 빅테크들의자체 AI 칩 경쟁이 추론 영역으로 확장되면서 AI 반도체 시장이 새 국면을 맞았다. </p> <p contents-hash="7b01cd036c68bab072fb77f2f5927c549077c40908570e4af8e7a05bfe4ea785" dmcf-pid="5ZX2tBsAhM" dmcf-ptype="general">구글 클라우드는 22일(현지시간) 미국 라스베이거스에서 열린 연례 기술 컨퍼런스 ‘구글 클라우드 넥스트 2026’에서 8세대 TPU 시리즈를 공개했다. 이번 8세대 TPU는 이전 세대와 달리 학습용 칩 ‘TPU 8t’와 추론용 칩 ‘TPU 8i’로 분리한 것이 특징이다. </p> <p contents-hash="c18b6f076aed73d4897f99fd4450c9bbd715363afb7d571d5e375bae7d9e7c06" dmcf-pid="15ZVFbOcvx" dmcf-ptype="general">아민 바흐다트 구글 AI 인프라 담당 부사장은 “두 칩은 파생 제품이 아니라 각각 용도에 맞춰 처음부터 새로 설계했다”고 설명했다. TPU 8t는 100만 개 이상의 칩을 연결해 초대형 AI 모델 학습에 활용할 수 있으며, 전력 대비 성능이 이전 세대 대비 124% 향상됐다. TPU 8i 역시 이전 세대보다 3배 이상 늘어난 384MB의 온칩 SRAM과 288GB의 고대역폭 메모리(HBM)를 탑재해 전력 대비 성능이 117% 개선됐다. </p> <figure class="figure_frm origin_fig" contents-hash="7f7e682c257f82684a85f7645531525605b83e492e54305bcc26fb8ff3ae8d35" dmcf-pid="t15f3KIkTQ" dmcf-ptype="figure"> <p class="link_figure"><img alt="구글 클라우드가 22일(현지 시간) 미국 라스베이거스에서 연례 기술 컨퍼런스 ‘구글 클라우드 넥스트 2026’을 개최했다. 구글 클라우드 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/23/552787-G8RRw8K/20260423153051875toqd.jpg" data-org-width="640" dmcf-mid="ZQ581qmjvr" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/23/552787-G8RRw8K/20260423153051875toqd.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 구글 클라우드가 22일(현지 시간) 미국 라스베이거스에서 연례 기술 컨퍼런스 ‘구글 클라우드 넥스트 2026’을 개최했다. 구글 클라우드 제공 </figcaption> </figure> <p contents-hash="5e70e6f92ce1c5d10cb1672785bb320489d96eff3c407109b0f703f6ff66808f" dmcf-pid="Ft1409CECP" dmcf-ptype="general"> 앞서 마이크로소프트(MS)도 올해 1월 추론에 최적화한 AI 칩 ‘마이아 200’을 공개하며 탈엔비디아 흐름에 가세했다. MS는 마이아 200이 오픈AI 최신 모델과 코파일럿 서비스 구동에 활용될 것이라고 밝혔다. MS에 따르면 마이아 200은 아마존웹서비스(AWS)의 ‘트레이니움 3세대’ 대비 4비트 성능에서 3배 앞서며, 구글의 7세대 TPU보다 뛰어난 8비트 연산 능력도 확보했다. </p> <p contents-hash="6e64df426650204569c2d82961772840642f9ee87f6959559087c55ec33b7d32" dmcf-pid="3Ft8p2hDS6" dmcf-ptype="general">메타도 자체 AI 칩 ‘MTIA’ 4종을 공개하며 추론 시장에 참전했다. MTIA 300이 페이스북·인스타그램의 콘텐츠 추천 작업에 최적화됐다면, MTIA 450·500은 HBM 대역폭을 크게 늘려 추론에 특화됐다. 메타는 “범용 칩은 추론 작업에 비용 대비 효율성이 떨어진다”며 자체 칩 개발 배경을 설명했다. </p> <p contents-hash="f5ed0c0ef69700f2b57d5d26c2bafb367e5164c696c172b77a10f68e4588d66e" dmcf-pid="03F6UVlwy8" dmcf-ptype="general">이처럼 빅테크들이 앞다퉈 추론 전용 칩을 내놓은 것은 AI 산업의 무게중심 이동과 맞닿아 있다. AI 에이전트 확산으로 토큰 사용량이 기하급수적으로 늘어나면서 추론 비용이 기업 수익성을 가르는 핵심 변수로 떠올랐기 때문이다. 범용 그래픽처리장치(GPU)로는 폭증하는 추론 수요를 감당하기 어려운 시대가 온 것이다. </p> <p contents-hash="83b3c94c713f36739d58987fc0a055d193003b6ba416c6c616792c5aa2352d91" dmcf-pid="p03PufSrW4" dmcf-ptype="general">동시에 엔비디아 의존도를 줄이는 수단이기도 하다. 엔비디아가 AI 칩 시장의 약 90%를 장악한 상황에서 GPU 수급이 사업 속도를 좌우하는 구조를 벗어나려면 자체 칩이 필수다. 냉각·전력 설계를 맞춤형으로 최적화해 동일 전력에서 더 많은 연산을 끌어낼 수 있다는 점도 강점이다. 막대한 비용이 소요되지만, 아마존처럼 외부 판매로 새로운 수익원을 키울 수 있다는 점도 매력이다. </p> <p contents-hash="ac96b761bb5a89440a87951cfbf85a9e39acf2475f3f825ec0b005ca8b1d6907" dmcf-pid="Up0Q74vmlf" dmcf-ptype="general">자체 칩 사업의 성장 가능성에 대한 시장 평가도 높다. 투자기관 DA 데이비슨은 구글 TPU 사업과 딥마인드의 합산 가치를 약 9000억 달러(약 1332조원)까지 평가했다. 바흐다트 부사장은 “AI 에이전트가 부상하면서 학습과 추론에 각각 특화된 칩이 필요한 시대가 됐다”고 말했다. </p> <p contents-hash="f34308ed8bbde559b7f1b4e3e2b0a7d55ba9b5e44679a5f34e2a09217e85ffa5" dmcf-pid="uUpxz8TsSV" dmcf-ptype="general">나유진 기자 yujin@viva100.com</p> </section> </div> 관련자료 이전 환각·보안·코어 수정… 금융 AI 3대 난제, ‘오페리아’로 해법 제시 04-23 다음 [WIS 2026] 주한 외교사절단 '최대 규모' 집결…韓 AI·ICT 현장서 협력 기회 모색 04-23 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.