“기어조립·케이블 연결” 고난도 작업 척척…로봇손 진화, ‘AI’가 이끈다 작성일 03-10 34 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">- GIST, 정밀 작업 로봇 AI 기술 개발<br>- 기어 조립 등 정밀작업 성공률 83%</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="YVshBbiPYc"> <figure class="figure_frm origin_fig" contents-hash="6592d23759c22fe9cdd4e81631510814f327f1add3edd11d1ecbc917ebe59f44" dmcf-pid="GfOlbKnQYA" dmcf-ptype="figure"> <p class="link_figure"><img alt="이번 연구를 수행한 GIST 연구진.[GIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/10/ned/20260310140205212fget.jpg" data-org-width="1280" dmcf-mid="xdcw0pQ9GD" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/10/ned/20260310140205212fget.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이번 연구를 수행한 GIST 연구진.[GIST 제공] </figcaption> </figure> <p contents-hash="6b5ac15036b94e8cdadab8a9bdcb2f951850158a94870c40dc7bb47da3685121" dmcf-pid="H4ISK9Lx1j" dmcf-ptype="general">[헤럴드경제=구본혁 기자] 광주과학기술원(GIST)은 AI융합학과 이규빈 교수 연구팀이 사람이 물체를 만질 때 느끼는 힘의 감각까지 학습해 정밀한 작업을 수행할 수 있는 인공지능(AI) 기술을 개발했다고 밝혔다.</p> <p contents-hash="4ff63e45d3fa404ea7dfded9afc82281effc4ba6252afe7f3f2e6f1701dc3ba8" dmcf-pid="X8Cv92oMYN" dmcf-ptype="general">이 기술은 사람이 작업할 때 눈으로 보는 정보뿐 아니라 손끝에서 느끼는 힘과 접촉 감각까지 함께 학습하도록 한 것이 특징이다. 연구팀은 이를 위해 ‘손힘 측정 장치(ManipForce)’와 ‘주파수 인식 속도-감각 통합 AI 모델(Frequency-Aware Multimodal Transformer, FMT)’을 함께 개발했다.</p> <p contents-hash="a34c519de236a677d39161ab5f075e06ab849aaa7dc60db7ca1717952a79bf46" dmcf-pid="ZGMJvT71Ya" dmcf-ptype="general">제조·전자·자동차 산업에서는 로봇이 기어를 끼우거나 플러그를 연결하고, 배터리를 교체하는 등 사람의 손작업을 대신하는 정밀 조작 작업을 수행한다.</p> <p contents-hash="032857399031278af6dc90d3e713612dd0634340697130835efa0cea71090182" dmcf-pid="5HRiTyztXg" dmcf-ptype="general">이러한 작업은 단순히 위치를 맞추는 것뿐 아니라 부품이 맞물리는 순간의 미세한 저항이나 힘의 변화를 감지하고 조절하는 능력이 필요하다.</p> <p contents-hash="571e02c4d9703f96f7569aec87bf8eedf2d50280408d137822588018fe6e7592" dmcf-pid="1XenyWqF1o" dmcf-ptype="general">그러나 기존 로봇 학습 방식은 대부분 카메라 영상(RGB)만으로 작업 데이터를 수집하는 모방 학습 방식을 사용해 왔다. 때문에 눈으로 보이는 정보만으로 판단해야 해 부품을 끼우거나 맞추는 순간 발생하는 미세한 저항과 순간적인 힘 변화를 파악하기 어렵다는 한계가 있었다.</p> <p contents-hash="23d1c592f449a7b9f96431c49bc29cf9cee9355ac573200a0ba01d2bc8d63616" dmcf-pid="tZdLWYB31L" dmcf-ptype="general">연구팀은 이러한 한계를 극복하기 위해 사람이 작업 과정에서 자연스럽게 느끼는 ‘힘의 감각’까지 로봇 학습에 활용하는 방법에 주목했다.</p> <p contents-hash="49ec946e3fbf19340bb8cef44cfae3aed24e89f5a48bb8a3dd6fb49a96fcb40a" dmcf-pid="F5JoYGb05n" dmcf-ptype="general">연구팀이 개발한 ‘손힘 측정 장치(ManipForce)’는 사람이 직접 손으로 작업하는 모습을 그대로 기록하면서 두 대의 카메라로 촬영한 작업 영상, 손목에 달린 센서로 측정한 힘과 회전력(Force–Torque) 손의 움직임과 위치 정보 등을 동시에 수집한다.</p> <p contents-hash="bd3102588ec78c9ede47fdac0f157caaaaaa9da47e3671f5fe026d90c64c75ab" dmcf-pid="31igGHKp5i" dmcf-ptype="general">영상은 초당 30회, 힘 정보는 초당 200회 이상 측정해 눈에 보이는 장면뿐 아니라 손끝에서 발생하는 미세한 힘까지 정밀하게 기록할 수 있다.</p> <figure class="figure_frm origin_fig" contents-hash="2630472a5c748856ea594d4a817425b9d6a31c3ba6b83079eb3c67e9936211dc" dmcf-pid="0tnaHX9UGJ" dmcf-ptype="figure"> <p class="link_figure"><img alt="손힘 측정 장치(ManipForce) 시스템 구성도.[GIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/10/ned/20260310140205565zhzv.png" data-org-width="1280" dmcf-mid="WQhT2VgRtk" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/10/ned/20260310140205565zhzv.png" width="658"></p> <figcaption class="txt_caption default_figure"> 손힘 측정 장치(ManipForce) 시스템 구성도.[GIST 제공] </figcaption> </figure> <p contents-hash="5a85163debb1a591be013f6624a3d25cc756a93208395b858ca81c0210d5910e" dmcf-pid="pFLNXZ2utd" dmcf-ptype="general">또한 물체와 손의 위치를 정확히 추적하는 ‘3D 마커’와 장치 자체 무게로 인한 힘을 제거하는 ‘장치 중력 보상 기능’을 적용해 실제 접촉에서 발생한 힘만을 정밀하게 측정하도록 설계됐다.</p> <p contents-hash="52ec417c2c1306f4b872a8d6263f9caed397f98a92a34ebe0dc6a2e9629732f3" dmcf-pid="U3ojZ5V7Xe" dmcf-ptype="general">이 장치는 로봇을 원격으로 조작하는 방식이 아니라 사람이 직접 손으로 물체를 조작하는 자연스러운 동작을 그대로 기록할 수 있다는 점에서도 기존 데이터 수집 방식과 차별화된다.</p> <p contents-hash="e4453da6021e1753cd5074a9c8c65764716bcf17b1fb3d778e9b72aefea41e44" dmcf-pid="u0gA51fzHR" dmcf-ptype="general">연구팀은 영상과 힘 데이터의 기록 속도가 서로 다르다는 문제를 해결하기 위해 ‘주파수 인식 속도-감각 통합 AI 모델(Frequency-Aware Multimodal Transformer, FMT)’도 함께 개발했다.</p> <p contents-hash="4f3e6617d9898e80af307eba37b2dcf9e4503027449f3de1bb70f19e9b8feb17" dmcf-pid="7UNktF8BGM" dmcf-ptype="general">연구팀은 ▷기어 조립 ▷박스 뒤집기 ▷배터리 삽입 ▷인터넷 케이블 플러그 연결 ▷뚜껑 열기 ▷배터리 분리 등 6가지 작업을 실제 로봇 실험으로 검증했다.</p> <p contents-hash="1ef27a1a2ffee04a3ba65cd7053964b25210bfb03c68aa0fa6622fb5913bc0ec" dmcf-pid="zujEF36bGx" dmcf-ptype="general">각 작업을 20회씩 수행한 결과, 평균 성공률은 약 83%를 기록했다. 이는 RGB 카메라 영상만 활용한 기존 방식(약 20% 수준)보다 크게 향상된 성능이다.</p> <p contents-hash="5eb19da237c12a321bd35a6acb1b94e76ba9da717ea8bf04d4dc9a7d32beb385" dmcf-pid="q7AD30PKHQ" dmcf-ptype="general">이규빈 교수는 “이번 연구는 카메라 영상에만 의존하던 기존 로봇 학습 방식의 한계를 극복하고, 힘 감각 데이터를 효과적으로 활용할 수 있는 새로운 AI 학습 프레임워크를 제시한 것”이라며 “향후 제조 현장의 부품 조립이나 커넥터 체결뿐만 아니라 가정 환경에서의 배터리 교체나 전자기기 부품 조립 등 섬세한 힘 제어가 필요한 다양한 분야에서 로봇 활용을 한 단계 도약시킬 수 있을 것으로 기대한다”고 말했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 "두 명의 남자와 나갈 수 있나요"..'솔로지옥', 시즌6 참가자 모집 시작 [스타이슈] 03-10 다음 봄 되니 꾸벅꾸벅…‘춘곤증’ 실제론 없다고? [달콤한 사이언스] 03-10 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.