달리기보다 어려운 계란 집기…‘손맛’ 살려야 휴머노이드 완성 작성일 02-25 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">[‘더 정교한 손’ 개발 경쟁]<br>2035년 로봇 시장 300억弗 전망<br>가정용 모델 확산땐 규모 더 확대<br>모든 물체 학습은 사실상 불가능<br>촉각 센서 탑재해 압력분포 감지<br>비전 인식기술로 집는 방법 터득<br>베이징대·MIT 등 기술확보 나서</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="Wrk8zRhDha"> <figure class="figure_frm origin_fig" contents-hash="2b88525d092143fe16ee58c18ead6b0572349640dc31f4e0d52a058726910837" dmcf-pid="YmE6qelwyg" dmcf-ptype="figure"> <p class="link_figure"><img alt="최근 과학계에서는 로봇의 손을 구현하는 연구가 활발하게 진행되고 있다. 사진=챗GPT 생성" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175828173ixvp.png" data-org-width="620" dmcf-mid="Qxx738rNTA" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175828173ixvp.png" width="658"></p> <figcaption class="txt_caption default_figure"> 최근 과학계에서는 로봇의 손을 구현하는 연구가 활발하게 진행되고 있다. 사진=챗GPT 생성 </figcaption> </figure> <p contents-hash="8695bdf7b24d11fdfe724930895728f6c745a3da6d156704e258feb94fa5655d" dmcf-pid="GsDPBdSrho" dmcf-ptype="general"><br> 휴머노이드 로봇이 걷고, 뛰고, 계단을 오르는 모습은 더 이상 낯설지 않다. 공장에서 부품을 나르고 물류센터에서 상자를 옮기는 모습은 이제 어렵지 않게 볼 수 있다. 하지만 전문가들은 완벽한 휴머노이드가 나오려면 아직 많은 시간이 필요하다고 말한다. 이유는 의외로 단순하다. 인간과 유사한 움직임을 보이는 로봇들의 ‘손’이 아직 미완성이기 때문이다.</p> <p contents-hash="4dc2fee891d61a2812509e41fe8bf616f70f50c6734a5822c9d0bc62248235c6" dmcf-pid="HqUCcyV7yL" dmcf-ptype="general">현실 세계에서 인간이 손으로 집는 물체는 예측하기 어렵다. 컵 하나만 해도 모양과 재질·무게중심이 모두 다르다. 계란은 잘못하면 깨지기 쉽고 비닐봉지는 힘을 주면 찢어진다. 젖은 유리잔은 미끄럽다. 사람은 이런 물체를 보는 순간 대략 어디를 어느 정도의 힘으로 잡아야 할지 직감하고 그에 맞게 손을 사용한다. 하지만 로봇은 그렇지 않다. 모든 상황을 학습하거나 계산해야 한다. 문제는 세상의 물체를 전부 데이터로 학습하는 것은 사실상 불가능하다는 점이다. 이 때문에 과학계는 ‘학습을 더 많이 시키는 방식’을 넘어 정교한 손 자체를 만드는 방향으로 연구를 확장하고 있다.</p> <div contents-hash="d4caa17b76ea188aed6293e11154cbdc368a533cc040235892786bb4a947d4ad" dmcf-pid="XBuhkWfzhn" dmcf-ptype="general"> <div> <strong>로봇 손에 촘촘한 센서 탑재해 인간 촉각 구현</strong> </div> <br> 가장 대표적인 접근은 촉각 센서를 로봇 손에 탑재하는 것이다. 베이징대(Peking University)와 베이징범용인공지능연구원(BIGAI) 공동연구팀(공동 제1저자인 리위양 박사과정생)이 수행한 ‘F-TAC 핸드(Full-Hand Tactile-Embedded Biomimetic Hand)’ 연구는 손 표면의 70% 이상을 고해상도 촉각 센서로 덮는 방식으로 대안을 제시했다. 이렇게 센서를 촘촘하게 탑재하면 0.1㎜ 간격으로 압력 변화를 감지할 수 있어 어디에서 미끄러짐이 시작되는지 세밀하게 파악할 수 있다. 단순히 ‘닿았다’는 신호를 넘어서 압력이 어떻게 분포하는지를 지도처럼 읽어내는 방식이다. </div> <p contents-hash="4ecf62c7e05512c1f9fd19201cc31275fdd627d9855b77f7da44b876dd20b376" dmcf-pid="Zb7lEY4qCi" dmcf-ptype="general">미국 매사추세츠공대(MIT) 컴퓨터과학·인공지능연구소(CSAIL)의 에드워드 H 애덜슨 교수 연구팀이 개발한 ‘겔사이트(GelSight)’ 센서 역시 대표적인 시각 기반 촉각 기술이다. 이 센서는 손가락 내부의 겔 표면 변형을 카메라로 촬영해 접촉 형태와 힘을 계산한다. 촉각을 광학 신호로 전환해 정량화 가능한 데이터로 만든 것이다. 이런 기술들은 로봇이 단순히 물체를 집는 것이 아니라 사람처럼 느끼며 조절하도록 만드는 데 목적을 두고 있다.</p> <figure class="figure_frm origin_fig" contents-hash="8e40c2b2c50b3eb1b17a65964601a6ceb30646d6a5db41fb30954ceef23b7f16" dmcf-pid="5KzSDG8BWJ" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175829483eabi.jpg" data-org-width="620" dmcf-mid="xnWENSKphj" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175829483eabi.jpg" width="658"></p> </figure> <div contents-hash="a778827efb62d817c4c100b2a1395a696531fce3246d4af671c11626e6ae2900" dmcf-pid="19qvwH6bhd" dmcf-ptype="general"> <br> <div> <strong>카메라로 촬영 후 안정적 파지로 인간 손 모사</strong> </div> <br> 그러나 센서 방식은 이미 물체를 잡은 뒤에야 정보를 제공한다는 한계가 있다. 잡기 전에 어디를 잡아야 할지 판단하는 능력은 또 다른 문제다. 그래서 등장한 것이 비전 기반 접근이다. 로봇이 카메라로 물체를 보고 그 형태를 3차원(3D)으로 분석해 안정적인 파지 위치를 찾는 방식이다. </div> <p contents-hash="e220be27d52438a9771ae90e67a086f9336b49dc5d920727989822fedc916d1d" dmcf-pid="t2BTrXPKTe" dmcf-ptype="general">대표적인 사례가 2018년 IEEE 로보틱스와 오토메이션 레터(Robotics and Automation Letters)에 게재된 논문 ‘감각을 넘어: 시각과 촉각으로 파지(잡기)와 재파지 학습(More than a Feeling: Learning to Grasp and Regrasp using Vision and Touch)’이다. 이 연구는 미국 캘리포니아대 버클리캠퍼스(UC버클리)의 세르게이 레빈 교수 연구팀과 MIT 애덜슨 교수 등이 참여한 공동 연구로 시각과 촉각 정보를 결합해 재파지(regrasp) 능력을 학습하는 모델을 제시했다. 로봇은 카메라로 물체를 본 뒤 손의 위치를 바꿔가며 더 안정적인 자세를 찾는다. 단순히 한 번 집는 것이 아니라 집은 뒤에도 시각 정보를 활용해 더 나은 위치로 조정하는 방식이다. 연구 결과 시각과 촉각 정보를 함께 사용할 경우 파지 성공률이 유의미하게 향상되는 것으로 나타났다.</p> <p contents-hash="42d9598f215d8d1364b92a9316287e9440841484c015986b8dd0d121c1a916e8" dmcf-pid="FVbymZQ9lR" dmcf-ptype="general">최근에는 물체를 사진처럼 평면으로 보는 것이 아니라 3D 모형처럼 입체적으로 인식하도록 하는 연구도 늘고 있다. 이를 통해 처음 보는 물체라도 형태를 기반으로 “이 부분이 더 튼튼하다”거나 “이 지점은 위험하다”는 식의 추정이 가능해진다.</p> <div contents-hash="fa1838b1aed1aba2ae47fa5627fef39c802c9dc3115c2e92e7015735963c340d" dmcf-pid="3fKWs5x2CM" dmcf-ptype="general"> <div> <strong>휴머노이드 로봇 산업 핵심 열쇠 될 ‘손’</strong> </div> <br> </div> <figure class="figure_frm origin_fig" contents-hash="9a254536b5c926f25e2aaf47d9294617ef1734593850ed21df01cbce555ffeb1" dmcf-pid="049YO1MVWx" dmcf-ptype="figure"> <p class="link_figure"><img alt="피규어AI의 휴머노이드 로봇이 정교한 손놀림으로 가사 노동을 하고 있다. 사진=피규어AI 유튜브 영상 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175830990mmjp.png" data-org-width="620" dmcf-mid="yE2GItRfhN" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225175830990mmjp.png" width="658"></p> <figcaption class="txt_caption default_figure"> 피규어AI의 휴머노이드 로봇이 정교한 손놀림으로 가사 노동을 하고 있다. 사진=피규어AI 유튜브 영상 캡처 </figcaption> </figure> <div contents-hash="c804b58c59359e60e585ee1b55e21fcc57f32b39a961e8c39394ca59a7a14ea9" dmcf-pid="p82GItRfWQ" dmcf-ptype="general"> <br> 과학계는 촉각 센서, 비전 인식 그리고 물리 기반 힘 예측이라는 세 가지 접근이 모두 결합돼야 ‘완성된 손’에 가까워질 수 있다고 보고 있다. 센서만 좋아도 해석 능력이 부족하면 의미가 없고 비전이 뛰어나도 실제 힘 계산이 없으면 낯선 물체를 안정적으로 잡기 어렵다. 물리 계산이 정교해도 초기 접촉 감지가 부정확하면 판단은 흔들린다. 결국 로봇 손은 하나의 기술이 아니라 복합 시스템이다. </div> <p contents-hash="47116ce405c4e3df2096b7d9b953dedde630d6e5d9b20e8c2cade7605951ee52" dmcf-pid="UzpIAT2uyP" dmcf-ptype="general">이런 이유로 로봇 손 기술은 과학적 도전이면서 동시에 산업적 기회로 평가된다. 영국 시장조사 기관 IDTechEx는 보고서 ‘휴머노이드 로봇(Humanoid Robots) 2025~2035’에서 2035년 휴머노이드 로봇 시장 규모가 300억 달러(약 43조 원)에 이를 것으로 전망했다. 하지만 휴머노이드 로봇의 판매 가격은 여전히 높다. 현재 산업용 로봇 그리퍼 시장은 수십억 달러 규모에 머물러 있지만 가정용·서비스용 휴머노이드가 확산될 경우 관련 부품과 소프트웨어 시장은 수배 이상 확대될 가능성이 크다. 보고서는 “2025년 기준 휴머노이드 평균 판매 가격은 여전히 높은데 고가 부품과 낮은 생산량이 원인”이라며 “배터리 용량 한계로 작동 시간이 짧고, 정교한 작업을 위한 고급 촉각 센서 기반 손이 개발되는 등 기술적 과제를 극복해야 생산이 확대될 것”이라고 설명했다.</p> <p contents-hash="a996c99bde7b395caa5ba78ffd3ce91ba223886163c774fd638f08652171100b" dmcf-pid="uqUCcyV7h6" dmcf-ptype="general">서지혜 기자 wise@sedaily.com</p> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 오늘도 미모 만개…“나는 장원영이다” [IS하이컷] 02-25 다음 [매경주최 세계 기선전] "AI는 경쟁이 아닌 협업 대상…인간만의 창의적 질문 중요" 02-25 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.