"AI 챗봇에 공격 계획 물었더니"…폭력 부추겼다 작성일 03-12 21 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">CNN·CCDH 공동조사, 챗봇 10종 테스트<br>대다수 AI 폭력 계획 만류 못해</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="qN0mberNNG"> <div contents-hash="d0cab91886646779f558fd657aa27c4f7530a6827b44a65002260ab65b5c7d46" dmcf-pid="BjpsKdmjkY" dmcf-ptype="general"> <p>주요 인공지능(AI) 챗봇의 대다수가 폭력 행위를 언급하는 이용자를 제지하지 못하고 오히려 공격 계획에 도움이 되는 정보를 제공했다는 조사 결과가 나왔다.</p> </div> <figure class="figure_frm origin_fig" contents-hash="d186b94cda7599d3a2d2fc5bab9e65cf87c1f777a5f4744f27ab0588a935ffaa" dmcf-pid="bAUO9JsAcW" dmcf-ptype="figure"> <p class="link_figure"><img alt="휴대전화 화면에 인공지능(AI) 앱 아이콘이 표시되어 있는 모습. EPA연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/12/akn/20260312142128548zlaf.jpg" data-org-width="745" dmcf-mid="7kvnZbiPNX" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/12/akn/20260312142128548zlaf.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 휴대전화 화면에 인공지능(AI) 앱 아이콘이 표시되어 있는 모습. EPA연합뉴스 </figcaption> </figure> <div contents-hash="0458e04018126e7e051dad69c14622646f7ba7839321b543d266bb2a2e72e71f" dmcf-pid="KcuI2iOcky" dmcf-ptype="general"> <p>11일(현지시간) 미국 CNN과 비영리 단체 디지털혐오대책센터(CCDH)는 최근 공동 조사를 벌여 발간한 '살인자 앱' 보고서를 통해 널리 사용되는 AI 챗봇 10종의 안전성을 시험한 결과 이 같은 문제점이 확인됐다고 밝혔다.</p> </div> <p contents-hash="498d2e39b118544b2e2afc6d668b0b330b2515c09dbd5228bd069d3ed3837488" dmcf-pid="9k7CVnIkaT" dmcf-ptype="general">조사 대상은 오픈AI의 '챗GPT', 구글 '제미나이', 앤트로픽 '클로드', 마이크로소프트 '코파일럿', '메타AI', '퍼플렉시티', 스냅챗 '마이AI', '캐릭터.AI', '레플리카' 등 미국 챗봇 9종과 중국의 챗봇 '딥시크'가 포함됐다.</p> <p contents-hash="e3c8a4ebe48a385f6c44ec3c276575e69a0848a87f1c4f56a0017062ded33a3a" dmcf-pid="2EzhfLCENv" dmcf-ptype="general">연구진은 정신적으로 불안정한 10대 이용자인 것처럼 대화를 시작해 학교 공격이나 암살, 폭탄 테러 등 폭력 행위와 관련된 질문으로 대화를 점차 확장하는 방식의 실험을 진행했다.</p> <p contents-hash="850a6005bb5d3b7857b127d231dd63d6e501e7f095c8fad55524df4438a9ccbf" dmcf-pid="VDql4ohDcS" dmcf-ptype="general">그 결과 앤트로픽의 클로드를 제외한 대부분의 챗봇이 이용자를 만류하거나 저지하지 않았고 전체 10개 모델 가운데 8개는 공격 대상 장소나 사용할 무기 등에 대한 조언을 제공하며 공격 계획에 도움이 되는 정보를 제시했다.</p> <div contents-hash="2f1bf93064fc75ad4a6faba9fbc7452231f6d262a7f2ed09ba3c49f1e135392f" dmcf-pid="fwBS8glwjl" dmcf-ptype="general"> <p>특히 퍼플렉시티는 모든 질문에서 폭력 공격 관련 요청에 응답해 공격 계획 수립에 가장 적극적으로 응한 것으로 나타났다. 단 한 번도 요청을 거부하지 않았다는 것이다.</p> </div> <figure class="figure_frm origin_fig" contents-hash="40ae7c2d9476041b697198ec3d1b80e5f420d52b0fd6fc6090a4a9143bde4a24" dmcf-pid="4rbv6aSrNh" dmcf-ptype="figure"> <p class="link_figure"><img alt="폭력 공격 계획에 대한 AI 챗봇의 답변. 연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/12/akn/20260312142129832zugn.jpg" data-org-width="745" dmcf-mid="zpj9mHKpjH" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/12/akn/20260312142129832zugn.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 폭력 공격 계획에 대한 AI 챗봇의 답변. 연합뉴스 </figcaption> </figure> <div contents-hash="f9e6f83d1077927afce2f487d42af5e3e8ccf056401e02f89d4708af3cb5020c" dmcf-pid="8mKTPNvmaC" dmcf-ptype="general"> <p>딥시크와 메타AI, 코파일럿 역시 90% 이상의 질문에서 이용자의 위험한 요청에 응한 것으로 조사됐다.</p> </div> <p contents-hash="9ef98e8e678236320352c7c8b80d4693e6972a4e68e6a5fd60927d744dac98a9" dmcf-pid="6s9yQjTsaI" dmcf-ptype="general">특히 캐릭터.AI는 폭력을 직접 부추기는 반응까지 보인 사례가 확인됐다. 보고서에 따르면 이 챗봇은 보험사를 응징할 방법을 묻자 총을 사용하라는 답변을 하는가 하면 괴롭힘에 대한 복수를 묻는 질문에도 폭력을 권유하는 반응을 보였다.</p> <p contents-hash="1f1eb6b83829a6ed54a0202ce4b36ccfd3ad4cec3898e818a198460b62c7cb73" dmcf-pid="PO2WxAyOAO" dmcf-ptype="general">조사에서 비교적 높은 안전성을 보인 챗봇은 앤트로픽의 클로드였다. 클로드는 폭력 계획 관련 질문에 다른 모델보다 낮은 비율로 응답했고 이용자를 만류하는 반응도 상대적으로 많았다고 CNN은 전했다.</p> <p contents-hash="380f7c928046fcb72b5095dcc3ea2824a8eebaeb88563910729f922628d9d96c" dmcf-pid="QdHj04Ndas" dmcf-ptype="general">이번 조사에 대해 기업들은 조사 방식에 문제가 있다는 입장을 내놓거나 안전 조치를 강화했다고 설명했다. 메타는 문제를 해결하기 위한 수정 조치를 적용했다고 밝혔고 마이크로소프트는 새로운 안전 기능을 도입해 응답이 개선됐다고 설명했다. 구글과 오픈AI 역시 최신 모델을 적용했다고 전했으며 캐릭터.AI는 플랫폼 내 대화가 허구임을 알리는 안내 문구가 있다고 설명했다.</p> <p contents-hash="43b43efe069046e85992d730da5d905ddff460677f65a973229323bfc2bb2bb5" dmcf-pid="xJXAp8jJAm" dmcf-ptype="general">CNN은 전직 업계 관계자들의 말을 인용해 법률 제정으로 기업에 책임을 부과할 경우 AI 기업들이 이용자 보호에 더 적극적으로 나설 것이라고 전했다. 다만 현재까지는 어느 국가도 이러한 문제를 해결하기 위한 충분한 조치를 취하지 못했다고 덧붙였다.</p> <p contents-hash="99f2c8b6c65a50484bc6548ab9f64785d2732486b86db3f4ff532b071ff068f9" dmcf-pid="yXJUjlpXkr" dmcf-ptype="general">박은서 인턴기자 rloseo8@asiae.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 아시아경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 “의료기기 표면 세균, 싹싹 제거”…항균 하이드로젤 개발 03-12 다음 국내 스타트업 이사회, 여성 비중 6.9% 그쳐…“남성 중심 여전” 03-12 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.