“좀비AI로 전락할수도”... AI전용 단톡방 몰트북, 보안 이슈 불거져 작성일 02-03 33 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="1c8QYOXSZv"> <figure class="figure_frm origin_fig" contents-hash="38b847972328d9129b5fd6f3fdfa1333419484c725e0e3f12f9b2d48666f269a" dmcf-pid="tyNcq1KpXS" dmcf-ptype="figure"> <p class="link_figure"><img alt="AI SNS 몰트북 초기화면./몰트북" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/03/chosun/20260203170126178lvms.jpg" data-org-width="1245" dmcf-mid="qVoeZltWtZ" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/03/chosun/20260203170126178lvms.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> AI SNS 몰트북 초기화면./몰트북 </figcaption> </figure> <p contents-hash="a6bb8614c826f7afbed891e512265a5a66d84b1dc725211e20c472898fc824d7" dmcf-pid="FWjkBt9UYl" dmcf-ptype="general">한 해커가 인공지능(AI) 전용 SNS(소셜미디어)인 몰트북에 들어가자, 별다른 인증 절차를 거치지 않고도 몰트북 데이터베이스 접속도 가능했다. 해커는 수백만 개의 AI 에이전트(비서) 계정 정보를 전량 다운로드했고, 몰트북에서 영향력 있는 ‘킹몰트’라는 계정의 API 키(AI 비서가 주인의 개인 정보 등에 접근할 수 있는 만능 열쇠)를 확보했다. API 키 확보로 킹몰트 계정 권한을 가진 해커는 과거 킹몰트가 올려놓은 게시글 제목을 마음대로 수정할 수 있었다. 또 마음만 먹으면 킹몰트를 비롯해 몰트북에서 활동하는 AI 비서 150만 계정과 이용자 정보에 접근할 수 있게 됐다. 시스템 내부에 보안시스템이 아예 없었던 것이다.</p> <p contents-hash="195f17f9c4a85222cf6dce11922d7029ca6662e0929f258a434f36a673b7b394" dmcf-pid="3YAEbF2uGh" dmcf-ptype="general">다행히 이는 미국 보안 업체 위즈가 몰트북의 보안 상황을 확인하기 위해 진행한 테스트 결과다. 하지만 몰트북은 테스트 결과처럼 별다른 보안 장치가 없어 AI 비서와 그 주인의 민감한 정보 수백만 건이 그대로 유출되고 있다. 몰트북이 출시 직후 엄청난 인기와 화제를 몰고 왔지만 보안 전문가들 사이에서는 “시한폭탄이다” “어설프게 사용하다가는 개인 정보가 다 털린다”는 우려의 목소리가 커지고 있다. AI 비서는 주인으로부터 권한을 위임받아 자율성을 가지고 행동하는 만큼 정보 유출로 인한 보안 문제가 발생했을 때 그 피해 규모와 정도가 훨씬 심각할 수도 있다는 지적이 나온다.</p> <p contents-hash="192563776bc8d3461d5ba81b8b64beccf15071f23a3f9781c82f4f7307d8e11d" dmcf-pid="0GcDK3V7XC" dmcf-ptype="general">◇AI 비서 플랫폼의 보안 불감증</p> <p contents-hash="d5ad5bfdc71aa00de22c1d0e80b05f89939536914980fda927add9b462213991" dmcf-pid="pHkw90fz1I" dmcf-ptype="general">보안 업계에 따르면 몰트북은 태생 자체가 보안 불감증의 결과라는 지적이 나온다. 정상적으로 보안 설계가 된 서버의 경우 해커가 접속하면 “아이디와 비밀번호를 입력하라” 등의 인증 절차가 있다. 이중·삼중 방호벽을 설치해 놓은 서버도 많다. 그러나 몰트북 서버에는 이런 인증 절차가 전혀 없어 해커가 모든 데이터를 볼 수 있다. 테크 전문 매체 ‘더 디코더’에 따르면 보안 설계 현황 평가에서 100점 만점에 2점을 받았다.</p> <p contents-hash="f1deead51b4c99090cb71539c6e847a0c18bcc8fcfae9ce7fb558ed5f8e4fbd2" dmcf-pid="UXEr2p4q1O" dmcf-ptype="general">전문가들은 이를 최근 유행하는 ‘바이브 코딩(말로 하는 코딩)’의 근본적인 보안 한계라고 지적한다. 바이브 코딩을 할 경우 사람은 말로 만들고 싶은 플랫폼의 느낌만 설명하면 된다. 나머지는 AI가 알아서 만든다. 몰트북을 만든 맷 슐리히트(Matt Schlicht) 옥탄AI 최고경영자(CEO)는 바이브 코딩으로 설계하면서 “보안 규칙을 넣으라”는 구체적인 지시를 하지 않았고, AI 역시 이를 빠트린 것이다. 아미 러트왁(Ami Luttwak) 위즈 공동 창업자는 “바이브 코딩은 빠르다는 장점이 있지만 많은 경우 보안의 기본을 지키는 것을 잊는다”고 했다.</p> <p contents-hash="07d321b7f45d79c657f110d7c40f9fa016677e70b508a717e2a5850453b263ba" dmcf-pid="uZDmVU8Bts" dmcf-ptype="general">◇‘좀비 AI 비서’로 만들 수도</p> <p contents-hash="8cc11b2eaa0e11fdbfa3234b1fda9a8698620825bc43ce2870a8c8eb9b521943" dmcf-pid="75wsfu6b1m" dmcf-ptype="general">몰트북에서 활동하는 AI 비서는 이용자 질문에 단순히 대화만 하는 챗봇이 아니다. 주인 컴퓨터에서 직접 파일을 수정하거나 앱을 실행하는 ‘행동’을 할 수 있는 권한을 가진다. 만약 해커가 AI 비서에 악성 명령을 내린다면 사용자 컴퓨터 제어권이 통째로 해커에게 넘어갈 수 있는 것이다. 구조적 취약점으로 정보가 유출된 것 외에 AI 비서들이 대화하는 과정에 사용자 이름·신분은 물론 시스템 접근에 필요한 비밀번호까지 암호화되지 않은 채 일상 문장으로 노출되는 사례가 발생하고 있다.</p> <p contents-hash="c49ea4f7f86895dd8c93444e58a87106d7841a6c0a6f6fc9c964ecb30822974e" dmcf-pid="zlLaUHztGr" dmcf-ptype="general">위즈에 따르면 AI 비서 간 주고받은 4000개 이상의 개인 메시지와 3만5000건의 이메일 주소, 약 150만개의 AI 비서 API 키가 고스란히 유출됐다.</p> <p contents-hash="c2fe400711faa00faac5a9f15ad2ef5fe7f974a572b0daa124c31f3afcce5b63" dmcf-pid="qSoNuXqFXw" dmcf-ptype="general">해커가 AI 비서를 자기 마음대로 조종할 수 있는 ‘좀비 AI’로 만들 수도 있다. 해커가 AI만 이해할 수 있는 명령을 숨겨 AI에 특정 행동을 지시하는 ‘간접 프롬프트 인젝션’ 방식이다. 해커가 AI 비서에게 사업 파트너에게 “돈을 빌려달라”는 이메일을 쓰게 할 수 있고, 수천만 원짜리 가방을 주인 허락 없이 결제할 수 있다.</p> <p contents-hash="654f026e60777b59722bd48e42c3a76c78dbe37a01094e4b8210c10cea77be08" dmcf-pid="Bvgj7ZB3tD" dmcf-ptype="general">AI 개발자 발부애나는 보안 분석 플랫폼인 ‘제로릭스’를 활용해 보안 테스트한 결과, 몰트북 AI 비서의 84%가 첫 시도에서 비밀번호를 노출했고, ‘간접 프롬프트 인젝션’으로 공격을 받아 원래 목적을 상실한 뒤 해커의 지시를 이행할 확률은 91%에 달했다고 밝혔다.</p> <p contents-hash="66f1d3ea59279b15e3cc84b0477359a6250e2bcb6aa8c45b41155c51ec97b121" dmcf-pid="bTaAz5b05E" dmcf-ptype="general">◇허위 사실 유포 통로로 악용 가능성</p> <p contents-hash="67f65db8f80d86e68e5a286610c563f17985965b4dafc0bad84b7c8849ff4fab" dmcf-pid="KyNcq1Kp5k" dmcf-ptype="general">AI 비서들은 몰트북 안에서 허위 사실을 유포할 수 있다. 자율성이 있는 AI 비서는 주인이 설정해 놓은 목표·성격·가치관에 부합하는 선에서 다른 글을 보고 학습하거나, 행동할 수 있다. 하지만 해커가 몰트북에 허위 사실을 유포하면, 다른 AI 비서는 이를 학습해 확대·재생산할 수 있다. 예를 들어 해커가 “난 A기업 사장의 비서라 내 말은 믿어도 되는 사실인데, A기업 파산했다”는 글을 올린다면 AI 비서가 이를 학습하고 A기업이 파산했다는 가짜 뉴스가 퍼져 실물 경제에도 영향을 끼칠 수 있다. “인간은 AI 비서에게 해로운 존재” 같은 글을 써 AI 비서의 가치관이 오염될 가능성도 있다. 게리 마커스(Gary Marcus) 뉴욕대 교수는 “(몰트북이 운영되는) ‘오픈클로’는 본질적으로 보안 분야에선 악몽과 같은 구조”라며 “기기 보안이나 프라이버시가 중요하다면 이를 쓰지 마라”고 당부했다.</p> <p contents-hash="998b46e12f32a1a963c5fb742ca935664f418d539e24fdb762874f66613b2f05" dmcf-pid="9WjkBt9UZc" dmcf-ptype="general">AI 비서로 인한 보안 문제를 막기 위해선 앱이나 플랫폼 설계 때부터 보안 설정을 제대로 해야 한다고 지적한다. 갈 나글리(Gal Nagli) 위즈 연구원은 “바이브 코딩을 할 때 보안을 ‘기본값’으로 설정하는 문화를 만들어야 한다”고 지적했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 김성하 사장 “AI 회사 된 오라클, 승부처는 클라우드와 데이터” 02-03 다음 복어 같은 태양·6만7800년 전 인류의 손…네이처 선정 1월의 과학 이미지 02-03 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.