엔비디아보다 2.1배 빠르게 유튜브 추천…‘버벅임’ 제거 작성일 02-05 44 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">KAIST 전기및전자공학부 정명수 교수팀<br>AI 추론 시간 70~90% 차지하던 ‘데이터 전처리’ 병목 현상 세계 최초 해결<br>엔비디아 GPU 대비 처리 속도 2.1배 향상, 에너지 소모 3.3배 절감<br>실시간 대용량 데이터 분석 서비스의 지연 시간 획기적 단축 기대</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="bDGxH1Kplk"> <figure class="figure_frm origin_fig" contents-hash="86f7ad6eca4b6e632210914cc0380cd5b62b636fd9a5ea38ea73ae17df73c036" dmcf-pid="KwHMXt9UWc" dmcf-ptype="figure"> <p class="link_figure"><img alt="AIST 전기및전자공학부 정명수 교수 연구팀. 앞줄 왼쪽부터 KAIST 정명수 교수, 전기및전자공학부 소속 강승관 박사과정, 이승준 박사과정. 뒷줄 왼쪽부터 파네시아 소속 권미령, 장준혁, 이상원,. 사진제공=KAIST" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/05/seouleconomy/20260205111106488stha.jpg" data-org-width="620" dmcf-mid="BlpgUqx2hE" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/05/seouleconomy/20260205111106488stha.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> AIST 전기및전자공학부 정명수 교수 연구팀. 앞줄 왼쪽부터 KAIST 정명수 교수, 전기및전자공학부 소속 강승관 박사과정, 이승준 박사과정. 뒷줄 왼쪽부터 파네시아 소속 권미령, 장준혁, 이상원,. 사진제공=KAIST </figcaption> </figure> <p contents-hash="50291dac5eec3e2c34778b11f41a6a851ce666c0a5afd6ad8e6ac5fa91328f2f" dmcf-pid="9HbEKfnQWA" dmcf-ptype="general"><br> KAIST 연구진은 엔비디아보다 추천 속도는 2.1배 빠르고 지연은 줄이며 전력 소모까지 낮춘 AI 반도체 기술 ‘오토GNN(AutoGNN)’을 개발해 주목받고 있다.<br><br> KAIST는 전기및전자공학부 정명수 교수 연구팀이 그래프 신경망 기반 인공지능의 추론 속도를 획기적으로 높일 수 있는 AI 반도체 기술 ‘오토GNN’을 세계 최초로 개발했다고 5일 밝혔다.<br><br> 연구팀은 서비스 지연의 주된 원인이 인공지능 추론 이전 단계인 그래프 전처리(Graph Preprocessing) 과정에 있음을 밝혀냈다. 이 과정은 전체 계산 시간의 70~90%를 차지하지만, 기존 GPU는 복잡한 관계 구조를 정리하는 연산에 한계가 있어 병목 현상이 발생해 왔다.<br><br> 연구팀은 이를 해결하기 위해 입력 데이터 구조에 따라 반도체 내부 회로를 실시간으로 바꾸는 적응형 AI 가속기 기술을 설계했다. 분석해야 할 데이터의 연결 방식에 맞춰 반도체가 스스로 가장 효율적인 구조로 바뀌는 방식이다.<br><br> 연구팀은 필요한 데이터만 골라내는 UPE 모듈과 이를 빠르게 정리·집계하는 SCR 모듈을 반도체 안에 구현했다. 데이터의 양이나 형태가 바뀌면 이에 맞춰 최적의 모듈 구성이 자동으로 적용돼, 어떤 상황에서도 안정적인 성능을 유지할 수 있도록 했다.<br><br> 성능 평가 결과 오토GNN은 엔비디아의 고성능 GPU(RTX 3090) 대비 2.1배 빠른 처리 속도를 기록했고 일반 CPU 대비 9배 빠른 성능과 함께 에너지 소모를 3.3배 줄이는 효율성을 보였다.<br><br> 이번 기술은 추천 시스템이나 금융 사기 탐지처럼 복잡한 관계 분석과 빠른 응답이 필요한 인공지능 서비스에 즉시 적용할 수 있다. 데이터 구조에 따라 스스로 최적화되는 AI 반도체 기술을 확보함으로써, 향후 대규모 데이터를 다루는 지능형 서비스의 속도와 에너지 효율을 동시에 높일 수 있는 기반이 마련됐다는 평가다.<br><br> 정명수 교수는 “이번 연구는 불규칙한 데이터 구조를 효과적으로 처리할 수 있는 유연한 하드웨어 시스템을 구현했다는 점에서 의미가 크다”며 “추천 시스템은 물론 금융·보안 등 실시간 분석이 필요한 다양한 AI 분야에 활용될 것”이라고 말했다.<br><br> 이번 연구는 2026년 1월 31일부터 호주 시드니에서 열리는 컴퓨터 아키텍처 분야 최우수 국제학술대회인 제32회 ‘IEEE International Symposium on High-Performance Computer Architecture (HPCA 2026)’에서 2월 4일 발표됐다.<br><br> 대전=박희윤 기자 hypark@sedaily.com</p> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 [영상] "혼자보다 나은 셋".. 챗GPT·제미나이·클로드가 서로 토론한다면? 02-05 다음 “전자기·소음까지 계산”…버추얼 트윈 핵심은 ‘시뮬레이션’ 02-05 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.