"AI는 핵무기같은 전략자산"…국정원 '보안 가이드' 내놨다 작성일 12-22 38 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">재난 방지대책 점수 올리고<br>복구시스템 구축에 가산점<br>정보보안 전용 예산 확보 중시<br>학습데이터 오염·백도어 경고</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="5gzS5joMSn"> <figure class="figure_frm origin_fig" contents-hash="030d026b14c5039ee9250bacb9ddedad74b8d7bf23f375270b3fcbfce601f866" dmcf-pid="1aqv1AgRvi" dmcf-ptype="figure"> <p class="link_figure"><img alt="Getty Images Bank" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/22/ked/20251222155600307emxv.jpg" data-org-width="655" dmcf-mid="XEha7sDgyo" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/22/ked/20251222155600307emxv.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> Getty Images Bank </figcaption> </figure> <p contents-hash="0df8270830c5003c58a7ed917cf94003be00c566878eff0d861dbf501dcc537e" dmcf-pid="tNBTtcaeSJ" dmcf-ptype="general">올해 온나라시스템 해킹과 국가정보자원관리원 화재 등이 잇따른 가운데 국가정보원이 ‘국가·공공기관 AI보안 가이드북’을 발간했다. 국정원은 가이드북 서문에서 인공지능(AI)을 핵무기에 버금가는 전략자산으로 규정하며 공공부문 AI 전환에 상응하는 보안 체계를 갖추겠다고 밝혔다. 가이드북에는 공공부문 위협 유형과 함께 국내외 AI 보안 사고 사례를 종합한 대응 방향도 담겼다. 사이버보안 실태평가 지표를 전면 손질해 재난·복구 등 핵심 항목의 배점을 올리고, AI·클라우드 전환 노력은 가산점 방식으로 반영하는 평가체계도 내놨다.</p> <p contents-hash="2119ed1fb98f2b207fd26cce912323d5de5e1a0974413eb1958bdf598eee1116" dmcf-pid="FjbyFkNdvd" dmcf-ptype="general"><strong><span> ◇ AI 전환은 ‘가산점’으로</span></strong></p> <p contents-hash="796f460dfc873517ac72f419727c6c3da0e01c88dccad2757088828cb6958352" dmcf-pid="3AKW3EjJhe" dmcf-ptype="general">국정원은 지난 10~11일 각급기관 정보보안 담당자 400여 명을 대상으로 설명회를 열어 새로운 사이버보안 실태 평가지표를 공개했다. 국정원은 2007년부터 매년 공공부문 사이버보안 실태평가를 실시해 왔다.</p> <p contents-hash="b6c77a99ef8caec756f429bc01ba6677a3c4d21490ae0eec940000d4df1f1015" dmcf-pid="0c9Y0DAiSR" dmcf-ptype="general">우선 재난방지대책 수립·시행 배점은 올해 2.5점에서 내년 3점으로 상향된다. 재해복구시스템(DR) 구축에 가산점 1점을 주는 항목도 신설됐다. 9월 대전 유성구 국가정보자원관리원 화재를 계기로 복구 역량의 평가 비중을 키운 것으로 풀이된다. 대전경찰청은 지난달 국가정보자원관리원 화재가 배터리 이설 작업 과정에서 전원 차단과 절연 조치가 미흡해 발생한 인재라고 결론을 내렸다.</p> <figure class="figure_frm origin_fig" contents-hash="3fd4e09a6a326009567fd383adec9f20f19651b7db504a43c12bdc072ebd4d11" dmcf-pid="pk2GpwcnyM" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/22/ked/20251222155601530cfld.jpg" data-org-width="655" dmcf-mid="Zx3sWne4vL" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/22/ked/20251222155601530cfld.jpg" width="658"></p> </figure> <p contents-hash="f535d5c67ed99518311f2f84abf34a2769381a6aca688b503e713ff0df9b87ba" dmcf-pid="UEVHUrkLyx" dmcf-ptype="general">배점 상향 폭이 가장 큰 항목은 ‘정보보안 전용 예산 확보’다. 올해 2점에서 내년 3점으로 1점 올랐다. 국내 기관의 정보보호 투자 비중이 낮다는 문제의식이 반영된 것으로 풀이된다. 과학기술정보통신부는 10월 내놓은 범부처 정보보호 종합대책에서 “현재 정보화 예산 대비 15% 이상 정보보호 투자가 선언적 권고 수준에 그치고 있다”고 지적했다. AI 보안관제시스템 도입에 가산점 1점을 부여하는 등 AI 평가 지표 등도 신설됐다. 국내 공공기관의 생성형 AI 도입은 급증하고 있다. 국정원이 중앙행정·공공기관·지방자치단체 등 300개 기관을 조사한 결과 보고서 작성, 민원 대응 등을 위해 생성형 AI를 도입한 곳이 2024년 34%에서 2025년 77%로 급증했다.</p> <p contents-hash="35282bf8f2c27bb5ef2242a12fd8f050ed1ac60c4bd9902e8960c35f21840b57" dmcf-pid="uDfXumEoSQ" dmcf-ptype="general"><strong><span> ◇ ‘데이터 오염’ 숨은 AI 위협</span></strong></p> <p contents-hash="52ef45bd04d5ace04f8c31c33c7375dcde552623ba0528df8d053b1e86c7e75c" dmcf-pid="7w4Z7sDgyP" dmcf-ptype="general">국정원은 같은 날 AI보안 가이드북을 배포하며 공공부문에서 마주칠 수 있는 위협을 15개 유형으로 정리하고 30개 대응책을 제시했다.</p> <p contents-hash="b807728000481b44ebe355f9629dfb0782091d18dc89b6df5f2a75965b081479" dmcf-pid="zr85zOwal6" dmcf-ptype="general">대표 사례로 든 위협은 ‘학습데이터 오염’이다. 학습·추론 단계의 데이터에 악성 정보가 주입·변조되면 모델 성능 저하, 편향, 오판이 발생할 수 있고 의료 시스템에서는 물리적 피해로 번질 수 있다고 경고했다. 실제 사례로 2016년 마이크로소프트(MS) 채팅봇 ‘테이(Tay)’가 악의적 대화에 오염돼 혐오·차별 발언을 쏟아내며 서비스가 중단된 일을 소개했다. 목적과 무관한 비공개 정보를 AI가 학습해 비인가자에게 답변하는 ‘비인가 민감정보 학습’도 위험 요소로 제시됐다.</p> <p contents-hash="a07b7111ad6c9af4127e0d4b5a4c8dd19fc99a4e71444559e52511e3e938efc2" dmcf-pid="qgzS5joMv8" dmcf-ptype="general">또 다른 위험으로는 ‘AI 백도어’를 경고했다. 공격자가 AI 모델·학습데이터·라이브러리 등에 백도어를 심은 뒤 배포해 평소에는 정상 동작하는 것처럼 보이다가 특정 조건이 만족되면 정보 유출이나 오동작을 일으키도록 하는 방식이다. 가이드북은 근거 사례로 지난해 세계 최대 AI 개발 플랫폼 허깅페이스에서 악성코드가 포함된 모델 100여 개가 발견됐다는 내용을 제시했다.</p> <p contents-hash="2eaf6f754aa343e95549e1c20b2d2854e852280fe844a230c8e1674048270a36" dmcf-pid="Baqv1AgRv4" dmcf-ptype="general">최영총 기자 youngchoi@hankyung.com</p> </section> </div> <p class="" data-translation="true">Copyright © 한국경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 랜드 월드런 부사장 "미래 전쟁 승패는 데이터가 결정…이젠 AI가 국방 그 자체죠" 12-22 다음 아마존 마켓 처럼…AWS, 국내 파트너사 '해외 장터' 열어준다 12-22 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.