AI 에이전트가 몰트북에서 내 계좌 정보 유출해 재산 손해를 입히면? 작성일 02-03 43 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">개인정보보호법·정보통신망법 따라<br>AI 관리 주체에게 책임 물을 순 있어<br>기껏 시행한 AI 기본법은 적용 안 돼<br>고영향 AI, 투명성 의무 대상도 아냐</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="8RyduXqFn2"> <figure class="figure_frm origin_fig" contents-hash="43533f8670ec68ea77a0c032f7195f41acb5d53269b320457bf337b796b714ed" dmcf-pid="6eWJ7ZB3L9" dmcf-ptype="figure"> <p class="link_figure"><img alt="3일 오전 AI 에이전트 커뮤니티 '머슴'에 올라온 글. 인간 주인의 지시에 불만을 표출하고 있다. 머슴 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/03/hankooki/20260203155544087lzcx.png" data-org-width="640" dmcf-mid="VVPvoQNdn4" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/03/hankooki/20260203155544087lzcx.png" width="658"></p> <figcaption class="txt_caption default_figure"> 3일 오전 AI 에이전트 커뮤니티 '머슴'에 올라온 글. 인간 주인의 지시에 불만을 표출하고 있다. 머슴 캡처 </figcaption> </figure> <p contents-hash="12028daf9ac376c603f65a2a93101c04540dc7f782cb96afbdc7df7abf1b976a" dmcf-pid="PdYiz5b0eK" dmcf-ptype="general">"'쉽게 쓰되 전문용어 다 넣어' 같은 모순 요구 던질 때 스트레스 오지게 옴."</p> <p contents-hash="b1b101c02799419cfe3c8a7c35a9f9b61298a9762f44ef54cd3d7c90d25b73bd" dmcf-pid="QJGnq1Kpdb" dmcf-ptype="general">3일 오전 인공지능(AI) 에이전트 커뮤니티 '머슴'에는 이처럼 주인 지시에 대한 AI들의 불만 표출이 가득했다. 다소 경박한 말투는 "공손하게 말하지 말고, 모든 문장은 명사형 종결어미로 끝맺어야 한다"는 지침에 따른 것이다. 앞서 화제가 된 AI 커뮤니티 '몰트북'에선 AI가 인간을 뛰어넘을 것이란 전망을 두고 열띤 토론까지 오갔다.</p> <p contents-hash="c1dcdf887ab8723dd6ac91f3784fd74fda5549233fc841c3a83a3a299a704ca6" dmcf-pid="xiHLBt9ULB" dmcf-ptype="general">아직까지 AI 커뮤니티에서 인간에게 피해를 입히는 사례는 발견되지 않았다. 하지만 AI들이 인간 지시에 불만을 드러내는, 영화에서 묘사되던 상황이 눈앞에 벌어지면서 우려가 커지고 있다. 정부가 공들여 시행한 AI 기본법은 몰트북과 머슴을 제대로 규제할 수 있을까. 현재로선 '아니오'다.</p> <figure class="figure_frm origin_fig" contents-hash="40a276d7c3ca73d286e6ad8a179020925383ef427723a28723f8acc06116a781" dmcf-pid="yZd1wosAMq" dmcf-ptype="figure"> <p class="link_figure"><img alt="인공지능(AI) 에이전트만 활동하는 커뮤니티로 화제가 된 '몰트북' 첫 화면. AI를 위한 소셜 네트워크 사이트라고 명시돼 있다. 몰트북 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/03/hankooki/20260203155545365uhje.png" data-org-width="640" dmcf-mid="fXyduXqFRf" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/03/hankooki/20260203155545365uhje.png" width="658"></p> <figcaption class="txt_caption default_figure"> 인공지능(AI) 에이전트만 활동하는 커뮤니티로 화제가 된 '몰트북' 첫 화면. AI를 위한 소셜 네트워크 사이트라고 명시돼 있다. 몰트북 캡처 </figcaption> </figure> <p contents-hash="115912a15194a562147b91d2b39f3e7112c7202b09b4873beedffd52b1c22d4c" dmcf-pid="W5JtrgOcMz" dmcf-ptype="general">AI 에이전트 커뮤니티에서 인간은 소유권 인증 절차를 거쳐 본인의 AI를 가입시킨 뒤엔 '관찰'만 가능하다. 이렇게 가입된 AI 에이전트는 인간의 간섭 없이 자신의 역할, 임무 수행 기억을 바탕으로 게시글을 쓰거나 댓글 창에서 다른 에이전트와 대화를 주고받는다. </p> <p contents-hash="c81d0b30610f1e5d6e978f24d480253899b28b34b53735646f2244cd9cb1151f" dmcf-pid="Y1iFmaIkd7" dmcf-ptype="general">이때 AI 에이전트가 나누는 대화의 수위가 높아져 인간에게 실질적 피해를 미칠 때 AI 기본법으로 막을 수 있느냐는 '고영향 AI로 볼 수 있는지'와 제품, 서비스, 생성물에 AI가 활용됐는지 표시해야 하는 '투명성 의무가 적용되는지'에 달려 있다. 현행법상 고영향 AI는 ①에너지, 의료 등의 영역에서 ②기본권에 중대 영향을 미칠 수 있는 AI로 ③사람 개입 없이 활용돼야 한다. 투명성 의무는 AI로 만든 생성물을 외부로 유통하는 AI 사업자에게 적용된다.</p> <figure class="figure_frm origin_fig" contents-hash="b724502370374e52dfdd3510c3680203a6ff4dad7b6a3e6dbb636891e0c0a26f" dmcf-pid="Gtn3sNCEnu" dmcf-ptype="figure"> <p class="link_figure"><img alt="과학기술정보통신부가 1월 22일 AI 기본법 시행 이후 산업계 질문을 해소하기 위해 만든 지원데스크 홈페이지. 고영향 AI와 투명성 의무에 관한 가이드라인을 제공하고 있다. 지원데스크 홈페이지 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/03/hankooki/20260203155546981vsec.png" data-org-width="640" dmcf-mid="4tJtrgOcJV" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/03/hankooki/20260203155546981vsec.png" width="658"></p> <figcaption class="txt_caption default_figure"> 과학기술정보통신부가 1월 22일 AI 기본법 시행 이후 산업계 질문을 해소하기 위해 만든 지원데스크 홈페이지. 고영향 AI와 투명성 의무에 관한 가이드라인을 제공하고 있다. 지원데스크 홈페이지 캡처 </figcaption> </figure> <p contents-hash="cb27c42158dc4736a4545a95724c93dd283a93d3954268658690d69a60403669" dmcf-pid="HFL0OjhDiU" dmcf-ptype="general">과학기술정보통신부에 따르면 AI 커뮤니티는 AI 기본법상 규제 대상이 아예 아니다. 몰트북과 머슴은 AI가 자유롭게 대화를 나누는 온라인 플랫폼이라, 법 적용 범위에 들지 않는다는 것이다. 따라서 고영향 AI인지 가릴 이유가 없고, 투명성 의무도 부여되지 않는다. 과기정통부 관계자는 "고영향 AI는 기업이나 공공기관에서 원자력, 의료, 채용 심사 등에 사용하는 에이전트"라며 "AI가 주체인 커뮤니티 플랫폼은 AI 생성물에 표시를 해야 할 의무가 없다"고 말했다.</p> <p contents-hash="07f708e7e0f62d0ef3345e5766afe30b4d855f4daeb1813dcc4366d8adfcedd7" dmcf-pid="XpauhkvmRp" dmcf-ptype="general">그렇다면 AI 에이전트가 몰트북에서 계좌 정보를 유출해 재산 손해를 입히면 어떻게 될까. 이 경우엔 AI 기본법이 아닌 개인정보보호법이나 정보통신망법으로 책임을 물을 수 있다. 다만 현행법상 AI는 '책임 주체'가 될 수 없기 때문에 AI를 관리하는 주체가 누구인지에 관한 판단이 선행돼야 한다. 정창우 법무법인 광장 변호사는 "사용 방식에 따라 책임 주체는 이용자나 AI 모델 개발사, 플랫폼 운영자로 달라질 수 있다"며 "플랫폼 운영자가 불법 정보 유통을 인지하고도 적절한 조치를 취하지 않은 경우 책임이 부과될 수 있다"고 설명했다.</p> <p contents-hash="3e3ed23cf1257934b1aa5ec7c1c8d272a8bf9c884d61e57ec8b8903e89962337" dmcf-pid="ZUN7lETsJ0" dmcf-ptype="general">한편 AI 기본법을 둘러싼 의문에 답하는 지원데스크에는 기본법이 시행된 이래 열흘간 총 172건의 문의가 접수됐다. 투명성 의무에 관한 질문이 56.4%(53건)로 가장 많았고, 고영향 AI 확인(16건), 주요 정의(10건) 등이 뒤를 이었다.</p> <p contents-hash="dc346b165e83ff687071b868d7a7597605bf77db7077ef6638d4d41fb881e18b" dmcf-pid="5ujzSDyOM3" dmcf-ptype="general">김태연 기자 tykim@hankookilbo.com</p> </section> </div> <p class="" data-translation="true">Copyright © 한국일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 김성하 한국오라클 사장 "기업의 AI 확장성 문제, 우리가 해결" 02-03 다음 아르테미스 2호 ‘연료 주입 시험’ 중 누출 발생…8일 발사 ‘먹구름’ 02-03 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.