“어디를 어떻게 잡아야 안 떨어질까…로봇이 스스로 알게 해야” 작성일 02-25 41 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">장형진 영국 버밍엄대 교수 인터뷰<br>“보는것·집는것 사이 간극 존재<br>물리법칙 학습…파지 성능 향상<br>가사·구조 로봇 혁신 가져올 것”</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="8ROIrXPKy7"> <figure class="figure_frm origin_fig" contents-hash="e61b9fc97a2495b4a333fbd51191963f4ec2c0e2e80de189946fff27a057281a" dmcf-pid="6eICmZQ9Tu" dmcf-ptype="figure"> <p class="link_figure"><img alt="장형진 영국 버밍엄대 교수. 사진 제공=장형진 교수" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225174822762chup.png" data-org-width="476" dmcf-mid="4pedxktWhz" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/25/seouleconomy/20260225174822762chup.png" width="658"></p> <figcaption class="txt_caption default_figure"> 장형진 영국 버밍엄대 교수. 사진 제공=장형진 교수 </figcaption> </figure> <p contents-hash="a173378d68644efea4ce22a9e34eb077604e76a3065ab53fc7b4f5e3e72649b1" dmcf-pid="PilSItRfhU" dmcf-ptype="general"><br> “로봇이 보기만 해도 ‘어디를 어떻게 잡아야 안전한지’ 예측할 수 있어야 진짜 손을 갖게 되는 겁니다.”</p> <p contents-hash="5637fa2e270ac7e4af894e15a587129e39b5506cc088b044e190692357f16ba9" dmcf-pid="QnSvCFe4lp" dmcf-ptype="general">장형진 영국 버밍엄대 교수는 로봇 손 연구의 본질을 이렇게 설명했다. 장 교수 연구팀은 로봇이 물체를 더 안정적으로 쥘 수 있도록 하는 ‘힘 인지형 3차원 접촉 모델(Force-Aware 3D Contact Modeling)’을 개발해 연구 중이다. 기존처럼 눈으로 보기만 하는 수준을 넘어 물체를 잡았을 때 각 손가락에 가해질 힘의 크기와 방향까지 예측하도록 한 것이 해당 연구의 핵심이다.</p> <p contents-hash="464d618d901d16597d0a9efdf95a3a72ae305bce637b1e0e74d81b962893626e" dmcf-pid="xLvTh3d8h0" dmcf-ptype="general">장 교수는 “현실의 로봇은 물체의 형상만 보고 손가락 위치를 정하다 보니 막상 들어 올리는 순간 힘의 균형이 깨져 미끄러뜨리는 경우가 적지 않다”며 “‘보는 것’과 ‘집는 것’ 사이에 간극이 존재한다”고 설명했다. 장 교수 연구팀은 보는 것과 집는 것 사이의 간극을 물리법칙으로 메웠다.</p> <p contents-hash="1fd6c65e03235f7e409bad9f560336aaa9243eda2464ae81875cd15c340705ce" dmcf-pid="y1PQ4aHll3" dmcf-ptype="general">인공지능(AI)은 먼저 사람이 물체를 잡을 때 예상되는 접촉 지점을 추정하고 이어 그 지점에서 중력에 대응하기 위해 어떤 방향의 힘이 작용해야 하는지 계산한다. 예컨대 와인잔을 위쪽에서 붙드는 대신 아래를 감싸 중력을 상쇄하는 방향으로 파지를 유도한다. 연구팀은 물리 시뮬레이터를 활용해 수만 번의 가상 실험을 거쳐 모델을 학습시켰다. 장 교수는 “접촉 지점과 힘의 방향을 함께 학습하도록 설계해 물건을 떨어뜨리지 않는 ‘안정적 파지’ 성능을 약 30% 향상시켰다”며 “기존 비전 기반 연구는 어디를 잡을지에 집중했지만 우리 연구는 어떻게 힘을 줘야 떨어지지 않을지를 계산해 물리적 안정성을 고려했다”고 설명했다. 이 연구는 싱가포르에서 열린 세계 최고 권위의 AI 학회인 ‘AAAI 2026’에서 발표돼 관련 연구자들의 관심을 끌었다. 특히 복잡한 형태의 도구나 가전제품을 다룰 때 그 효과가 두드러졌다. 향후 이 기술이 고도화되면 집안일을 돕는 가사 로봇은 물론 재난 현장에서 정밀한 작업이 필요한 구조 로봇, 정교한 손놀림이 필요한 제조 공정 등 피지컬 AI가 필요한 모든 분야에 혁신을 가져올 것으로 기대된다.</p> <p contents-hash="5a48700e22bacb503e462d963c1146df7b7461b8223d24cbf3ece3e50935130a" dmcf-pid="WtQx8NXSvF" dmcf-ptype="general">그동안 학계와 기업들이 ‘걷기’에 집중해 휴머노이드 로봇을 개발해왔다면 이제는 보행과 조작을 통합적으로 다루는 단계로 넘어가고 있다. 그만큼 손은 휴머노이드 상용화의 핵심 주제로 부각된 상황이다. 하지만 손을 완성하는 일은 쉽지 않다. 그는 “손은 자유도가 높고 구조가 작아 충분한 모터를 넣기 어렵다”며 로봇 손 연구가 특히 어려운 이유를 설명했다.</p> <p contents-hash="bd68f8ee83ed66bd4411475be5b301c6f4badde4dd0ff62ad506b7cefba245d2" dmcf-pid="YFxM6jZvyt" dmcf-ptype="general">이런 이유로 센서나 비전·물리법칙 등 하나의 기술만으로 로봇 손을 완성할 수는 없다. 장 교수는 “최근 촉각·압력 센서 기술도 빠르게 발전 중이지만 아직은 방식이 다양하고 완성형은 없다”며 “시각이 힘의 방향을 예측하고 촉각 센서가 미세 조정을 보완하는 멀티모달 접근이 필요하다”고 설명했다. 또한 “로봇 손 개발은 하나의 종합예술”이라며 “손 하나를 완성하기 위해서는 시각과 촉각·물리법칙까지 모든 기술이 결합돼야 한다”고 말했다.</p> <p contents-hash="ba2e868da2f31ba0231d095a00a4121d9d5f3f7efdf3b7a2a50f836625b41fe0" dmcf-pid="G3MRPA5TT1" dmcf-ptype="general">서지혜 기자 wise@sedaily.com</p> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 “꽃은 다시 지고 핀다!” 한번 망했다가 다시 부활한 게임 02-25 다음 'P의 거짓' 개발자 만남…네오위즈, 오프라인 행사 통해 팬 접점 넓혀 02-25 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.