손끝 힘 느끼는 로봇 AI 기술 개발…정밀 작업 성공률 83% 작성일 03-10 30 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">GIST, 국제 로봇 학술대회 ‘ICRA 2026’ 발표 예정</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="YJd1jaSrMG"> <figure class="figure_frm origin_fig" contents-hash="58eeb67fa1097ec17457d523594bdc67c71678efc1c99f2acde66e2ef083783f" dmcf-pid="G4fveMDgeY" dmcf-ptype="figure"> <p class="link_figure"><img alt="국내 연구팀이 정밀 작업이 가능한 로봇 AI 기술을 개발했다. 게티이미지뱅크 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/10/dongascience/20260310112803981cqcz.jpg" data-org-width="680" dmcf-mid="xfEKhIFYeZ" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/10/dongascience/20260310112803981cqcz.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 국내 연구팀이 정밀 작업이 가능한 로봇 AI 기술을 개발했다. 게티이미지뱅크 제공 </figcaption> </figure> <p contents-hash="fc0652117d608a2590bdd8075c108f5ef85f9cf70d44ba992c2987027ea53e60" dmcf-pid="H84TdRwaMW" dmcf-ptype="general">사람처럼 손끝으로 힘을 느끼며 정밀 작업을 해내는 로봇 인공지능(AI) 기술이 나왔다. 기존 로봇은 카메라 영상으로 사람의 동작을 따라하는 데 그쳐 부품이 맞물리는 순간의 미세한 저항이나 힘 변화까지는 흉내 내지 못했다. 국내 연구팀이 손힘 측정 장치와 감각 통합 AI 모델을 새로 개발해 그 벽을 넘었다.</p> <p contents-hash="46b554137b13f281ec58d7a6b4dd36a152b363ad81b400ea554bbc9f56dca8e8" dmcf-pid="X68yJerNJy" dmcf-ptype="general"> 광주과학기술원(GIST)은 이규빈 AI융합학과 교수·인공지능연구소장 연구팀이 사람이 작업할 때 손끝에서 느끼는 힘과 접촉 감각까지 함께 학습해 정밀한 작업을 수행할 수 있는 AI 기술을 개발했다고 10일 밝혔다.</p> <p contents-hash="7957c4af1b0e7ef5b131cc14084e11a176154013de59232e3058fa04d1a8d535" dmcf-pid="ZP6WidmjLT" dmcf-ptype="general">연구 결과는 로봇공학 분야 권위 있는 학술대회 'IEEE ICRA 2026'에서 6월 초 발표될 예정이다. ICRA 2026은 6월 1일부터 5일까지 오스트리아 빈에서 개최된다.</p> <p contents-hash="6918c30942e356f06dd84c8efe59556d728cf8a32988af5ec11e080dccc00b26" dmcf-pid="5QPYnJsAiv" dmcf-ptype="general"> 연구팀은 '손힘 측정 장치(ManipForce)'와 '주파수 인식 속도-감각 통합 AI 모델(FMT)'을 함께 개발했다.</p> <p contents-hash="3e3226daaaa197cd2273660640d292aaf2c44d895a99e83550df1c13fd17c4af" dmcf-pid="1xQGLiOcMS" dmcf-ptype="general"> 제조·전자·자동차 산업에서 로봇은 기어 조립, 플러그 연결, 배터리 교체 등 사람의 손작업을 대신하는 정밀 조작을 수행한다. 단순히 위치를 맞추는 것을 넘어 부품이 맞물리는 순간의 미세한 저항과 힘의 변화를 감지하고 조절하는 능력을 요구한다. </p> <p contents-hash="15007d6d869c9a7ae75d5b14768f47b0866fa4333fe4d29f6063872df8d5a0eb" dmcf-pid="tMxHonIkil" dmcf-ptype="general"> 기존 로봇 학습은 사람이 직접 수행한 동작을 데이터로 기록해 따라하도록 학습시키는 ‘모방 학습(Imitation Learning)’ 방식에 의존했고 시각 정보만으로는 이런 힘 변화를 잡아내는 데 한계가 있었다.</p> <p contents-hash="98ab329063049527c0c98566d727e2d27da1728e7dd465792cc6dd9135ee5925" dmcf-pid="FRMXgLCEJh" dmcf-ptype="general"> 손힘 측정 장치는 사람이 직접 손으로 작업하는 모습을 기록하면서 ▲두 대의 카메라로 촬영한 작업 영상 ▲손목 센서로 측정한 힘과 회전력(Force–Torque) ▲손의 움직임과 위치 정보를 동시에 수집한다. </p> <p contents-hash="37ea0534af690a92e36dcb350a9020ed36a23eb81961fb7decddc7e426973158" dmcf-pid="3eRZaohDJC" dmcf-ptype="general"> 영상은 초당 30회, 힘 정보는 초당 200회 이상 측정해 손끝에서 발생하는 미세한 힘까지 정밀하게 기록할 수 있다. 물체와 손의 위치를 정확히 추적하는 '3D 마커'와 장치 자체 무게로 인한 힘을 제거하는 '장치 중력 보상 기능'을 적용해 실제 접촉에서 발생한 힘만 정밀하게 측정하도록 설계했다. </p> <p contents-hash="a76678917f6c1393c09e6d5f0e4c535dc66b7dc9f5209aed7932fd082ec15e15" dmcf-pid="0de5NglweI" dmcf-ptype="general"> 로봇을 원격으로 조작하는 방식이 아니라 사람이 직접 물체를 조작하는 자연스러운 동작을 그대로 기록한다는 점에서 기존 데이터 수집 방식과 차별화된다.</p> <p contents-hash="529a4891914ebf78651e3ebbaa2b2bcc69043ab687e9caa35aff3f74c606adce" dmcf-pid="pJd1jaSrMO" dmcf-ptype="general"> 영상과 힘 데이터는 기록 속도가 달라 시간 간격이 서로 다르다. FMT는 서로 다른 센서 주파수의 데이터를 각각 분석한 뒤 비교·통합해 학습하는 AI 모델이다. 로봇은 FMT를 통해 물체의 위치와 접촉 상황을 동시에 이해하고 접촉이 많은 정밀 조작 작업에서도 안정적인 동작을 수행할 수 있다.</p> <figure class="figure_frm origin_fig" contents-hash="045b132b01be9f08b796f8f5e1eba0a3c52cf78e2402f21dba20f1574b279406" dmcf-pid="UiJtANvmLs" dmcf-ptype="figure"> <p class="link_figure"><img alt="실제 작업 성공률에서도 차이가 뚜렷했다. FMT를 적용한 로봇은 기어 조립, 배터리 삽입 등 6가지 접촉 작업에서 평균 83%의 성공률을 달성했다. 영상 정보만 사용한 기존 방식을 크게 웃도는 수치다. GIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/10/dongascience/20260310112805258jqjo.jpg" data-org-width="680" dmcf-mid="yrGn0F8BJX" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/10/dongascience/20260310112805258jqjo.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 실제 작업 성공률에서도 차이가 뚜렷했다. FMT를 적용한 로봇은 기어 조립, 배터리 삽입 등 6가지 접촉 작업에서 평균 83%의 성공률을 달성했다. 영상 정보만 사용한 기존 방식을 크게 웃도는 수치다. GIST 제공 </figcaption> </figure> <p contents-hash="eeedeb02f3e891b91d7f6054ffc5d681f95a027a2332ef738be6d9faad37cb49" dmcf-pid="uBqs8faeim" dmcf-ptype="general">연구팀은 ▲기어 조립 ▲박스 뒤집기 ▲배터리 삽입 ▲인터넷 케이블 플러그 연결 ▲뚜껑 열기 ▲배터리 분리 등 6가지 작업을 실제 로봇 실험으로 검증했다. 각 작업을 20회씩 수행한 결과 평균 성공률은 약 83%를 기록했다. RGB 카메라 영상만 활용한 기존 방식(약 20% 수준)보다 크게 향상된 수치다.</p> <p contents-hash="d1be14d42e097357bff5f1fdce124d47f5e6491ddd060a36dac0a812b884d47b" dmcf-pid="7bBO64NdMr" dmcf-ptype="general"> 이규빈 교수는 "카메라 영상에만 의존하던 기존 로봇 학습 방식의 한계를 극복하고, 힘 감각 데이터를 효과적으로 활용할 수 있는 새로운 AI 학습 프레임워크를 제시했다"며 "제조 현장의 부품 조립과 커넥터 체결뿐 아니라, 가정 환경에서의 배터리 교체·전자기기 부품 조립 등 섬세한 힘 제어가 필요한 다양한 분야에서 로봇 활용을 한 단계 도약시킬 수 있을 것"이라고 말했다.</p> <figure class="figure_frm origin_fig" contents-hash="a7ebf803721ea7ec3df13b378d39d4604533d56a01d30178376e2d60be1ec96f" dmcf-pid="zKbIP8jJMw" dmcf-ptype="figure"> <p class="link_figure"><img alt="이성주 박사(왼쪽부터), 이규빈 교수, 이건협·노상준 박사과정생, 김강민 석·박통합과정생, 백승혁 한국기계연구원 선임연구원, 이영진 석사과정생. GIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/10/dongascience/20260310112806510gman.jpg" data-org-width="680" dmcf-mid="WMw2Sh0HRH" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/10/dongascience/20260310112806510gman.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이성주 박사(왼쪽부터), 이규빈 교수, 이건협·노상준 박사과정생, 김강민 석·박통합과정생, 백승혁 한국기계연구원 선임연구원, 이영진 석사과정생. GIST 제공 </figcaption> </figure> <p contents-hash="2f9311c5667b3c35ba7d47c0ed3c17b84c63516f79b6e9e9f9126b35b39d99b7" dmcf-pid="q9KCQ6AieD" dmcf-ptype="general"><참고자료><br> doi.org/10.48550/arXiv.2509.19047</p> <p contents-hash="2c258ed01986a78a181e0f92546a2c8dc9193988063d47b4065b4a88305e5594" dmcf-pid="B29hxPcneE" dmcf-ptype="general">[조가현 기자 gahyun@donga.com]</p> </section> </div> <p class="" data-translation="true">Copyright © 동아사이언스. 무단전재 및 재배포 금지.</p> 관련자료 이전 앳하트, 美 LA 올 로케 신곡 뮤비 티저 공개 03-10 다음 안세영 vs 왕즈이 = 페더러 vs 나달?…한 번 이겼다고 너무 들떴네→인도 언론이 왜 나서나? 03-10 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.