[K-VIBE] 임기범의 AI혁신 스토리…전쟁 벌인 AI, 빠른 판단과 흐린 책임 작성일 03-09 26 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="QvhH3qd8HH"> <p contents-hash="71396eaac85e717d3cad0a542bc95fa23b94d9260fb5228f09dfcd5461ddd7b0" dmcf-pid="xTlX0BJ6XG" dmcf-ptype="general">[※ 편집자 주 = 한국국제교류재단(KF)의 2024년 발표에 따르면 세계 한류 팬은 약 2억2천500만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선으로 한국 문화를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재합니다.] </p> <figure class="figure_frm origin_fig" contents-hash="d9541b447fbbe34ce442fec0151b3c2e3adeceb92252d6398686da72f742e745" dmcf-pid="yQ8JNwXSXY" dmcf-ptype="figure"> <p class="link_figure"><img alt="임기범 서울과학종합대학원 대학교 객원교수 [본인 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/yonhap/20260309140140564emrn.jpg" data-org-width="473" dmcf-mid="VCCGFze4HF" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/yonhap/20260309140140564emrn.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 임기범 서울과학종합대학원 대학교 객원교수 [본인 제공] </figcaption> </figure> <p contents-hash="1d3dd2487361f9add0fd05c03fa5af9e73dea7826d95f0233852eb4475828a02" dmcf-pid="Wx6ijrZvHW" dmcf-ptype="general">지난달 28일 이란 남부 미나브의 샤자레타예베 여학교가 큰 폭발로 무너졌다. 이란은 미국과 이스라엘을 지목했고, 미국과 이스라엘은 책임을 인정하지 않았다. 그러나 AP와 로이터 통신 보도에 따르면 위성사진, 전문가 분석, 미군의 내부 조사, 그리고 익명을 전제로 한 미국 당국자 진술은 이 공격이 미국의 공습이었을 가능성을 강하게 시사했다. 보도에 따르면 165명 이상이 숨졌고 대부분은 어린 학생들이었다.</p> <p contents-hash="209c2df6edae16509f1668e1499cf96f532596ec7279fda6199e2ed378217791" dmcf-pid="YMPnAm5T5y" dmcf-ptype="general">거의 동시에 또 하나의 사실이 드러났다. 미국은 이번 대이란 작전에서 인공지능(AI)을 실제로 활용했다. 로이터는 미 국방부가 앤트로픽(Anthropic)의 클로드(Claude)를 포함한 AI 서비스를 이란 공격 과정에서 사용했다고 전했고, 다만 그 도구가 전쟁 수행의 어느 단계에서 어떻게 쓰였는지는 확인하지 못했다고 보도했다. 이 점은 중요하다. 지금까지 공개된 정보만으로는 AI가 해당 학교를 직접 표적으로 지목했다고 단정할 수 없다. 하지만 그렇다고 문제가 작아지는 것도 아니다. 오히려 더 중요한 질문이 생긴다. AI가 들어간 작전에서 인간은 실제로 얼마나 판단하고 역할을 했는가.</p> <p contents-hash="6f4d6fa6821fed782db7dd710830c4fd7968c0c6b89d3cb06b48b45559b8c4e2" dmcf-pid="GRQLcs1yXT" dmcf-ptype="general">많은 사람은 이번 비극 앞에서 이렇게 물었다. AI의 잘못된 판단 때문인가, 아니면 사람이 생각 없이 승인했기 때문인가. 그러나 이 질문은 사태를 지나치게 단순화한다. 지금 우리가 봐야 할 것은 '누가 마지막 버튼을 눌렀는가'가 아니라 그 버튼에 이르기까지 어떤 정보가 어떤 방식으로 압축되고 추천되며 승인되었는가 하는 과정 전체다. 전쟁에서 AI의 위험은 꼭 '기계가 스스로 발사 버튼을 누르는 순간'에만 발생하지 않는다. 정보 선별, 표적 후보의 우선순위화, 요약과 추천 같은 보조적 기능만으로도 인간의 판단 구조는 이미 크게 달라질 수 있다.</p> <p contents-hash="b89f84a129880babccce8722be93fd714bcbe2894d141ae88685db5571ad599b" dmcf-pid="HrEhYt4qGv" dmcf-ptype="general">이번 사건이 보여주는 첫 번째 문제는 속도다. AI는 방대한 데이터를 사람보다 훨씬 빠르게 정리하고, 관계를 묶고, 우선순위를 세운다. 군은 바로 그 속도를 원한다. 하지만 판단의 속도가 빨라질수록 인간의 검토는 쉽게 형식으로 축소된다. 서류상으로는 사람이 최종 승인자다. 그러나 실제로는 기계가 추린 후보군, 기계가 정리한 요약, 기계가 만든 우선순위 위에서 제한된 시간 안에 결재만 하는 구조가 될 수 있다. 그때 인간은 '판단자'라기보다 형식적인 '결재자'에 가까워지게 된다.</p> <p contents-hash="b66f382ed2e3e3ca9b9cc771c1faa42cce92f962d31ea09c5cf89da910ddb1ae" dmcf-pid="XmDlGF8B1S" dmcf-ptype="general">두 번째 문제는 책임이다. '휴먼 인 더 루프'(Human in the Loop)라는 말은 듣기에는 안심이 된다. 그러나 형식적으로 인간이 포함돼 있다는 사실이 실질적인 숙고를 보장하지는 않는다. 비극이 벌어졌을 때도 모두가 한 발씩 물러설 수 있다. AI는 참고용이었다고 말할 수도 있고, 최종 결정은 인간이 했다고 말할 수도 있다. 그러면 책임은 분산되고 설명은 흐려진다. 누구도 완전히 책임지지 않는 구조가 만들어지는 것이다. 기술은 점점 정교해지는데 책임의 선은 오히려 더 희미해진다. 이점이야말로 군사 AI가 가장 불편한 방식으로 드러내는 현실이다.</p> <p contents-hash="ba680ea98fa83d7f128c6f97d20ca7e8bbaf65457c8dc9ada4e231ca30ff57ee" dmcf-pid="ZswSH36b5l" dmcf-ptype="general">세 번째 문제는 정밀함과 정당함이 다르다는 사실이다. AP가 인용한 전문가들은 학교와 인접한 혁명수비대 관련 시설 일대에 나타난 피해 양상이 상당한 정확성을 보인다고 분석했다. 주변 전체가 무차별적으로 파괴된 것이 아니라 담장 안 복합구역에 여러 차례 정밀 타격이 가해진 흔적이라는 것이다. 만약 그렇다면 문제는 '빗나간 공격'이 아니라 '정확하게 잘못된 목표를 향한 공격'일 수 있다. 기술의 정밀도가 도덕적 정당성까지 대신해 주지는 못한다는 뜻이다. 오히려 그 반대일 수도 있다. 더 정밀한 기술은 더 정밀한 변명을 가능하게 만들기 때문이다.</p> <p contents-hash="a0df4fdd366563359c952d998929b3b9c01a4f7518644fca00b3ad51a5574b6d" dmcf-pid="5OrvX0PK1h" dmcf-ptype="general">네 번째 문제는 데이터의 최신성이다. AP 보도에서 전문가들은 해당 건물이 학교로 사용되고 있다는 최신 정보가 표적 데이터베이스에 반영되지 않았을 가능성을 제기했다. AI는 정확한 최신데이터든, 잘못된 낡은 데이터든 구분 없이 그저 빠르게 정리할 뿐이다. 다만 그 경우 잘못은 더 넓게, 더 빠르게, 더 그럴듯한 형태로 증폭된다. AI 시대의 위험은 단순한 기계 오작동이 아니라 오래된 정보와 빠른 의사결정이 결합할 때 발생하는 구조적 실패에 있다.</p> <p contents-hash="0f850bf5e52fd6245e11c13c0f94b26cf89545f5b5140a13cdc5708c7900c65e" dmcf-pid="1ImTZpQ9tC" dmcf-ptype="general">이 지점에서 이 사건은 더 이상 전장만의 이야기가 아니게 된다. 우리는 흔히 군사 AI를 일상과 동떨어진 특수한 기술로 여긴다. 그러나 본질은 놀랄 만큼 닮았다. 전장에서는 AI가 정보를 선별하고 요약하며 표적 후보를 정리한다. 일상에서는 AI가 뉴스를 요약하고, 검색 결과를 정리하고, 문서를 작성하고, 소비와 이동과 업무의 선택지를 추천한다. 규모와 결과의 무게는 전혀 다르지만, 인간의 판단이 점점 더 기계가 마련한 틀 안에서 이뤄진다는 점에서는 같다. 전장에서는 그 대가가 생명으로 돌아오고, 일상에서는 무비판적 의존과 판단력의 둔화, 그리고 책임 회피의 습관으로 돌아온다.</p> <p contents-hash="b1d6efc1c9a37059c50c23e3d702e17eb4feb6b3ecd31819f6144c771228ba3b" dmcf-pid="tCsy5Ux25I" dmcf-ptype="general">그래서 지금 필요한 것은 막연한 기술 낙관도 공포도 아니다. 필요한 것은 정확한 AI 사용 교육이다. 그런데 AI 사용 교육은 새로운 서비스를 빨리 써보는 능력이 아니다. 그것은 AI가 내놓은 답의 출처를 확인하는 습관, 요약문 뒤에 있는 원문과 맥락을 다시 대조하는 태도, 최신 정보인지 아닌지를 확인하는 기본기, 그리고 그 결과를 그대로 넘겨받지 않고 한 번 더 인간의 언어로 재검토하는 능력을 말한다. AI가 제시한 산출물을 '답'이 아니라 '초안'으로 받아들이는 태도, 판단 이전에 검증을 두는 태도, 무엇보다 결과가 잘못됐을 때 그 근거와 과정을 끝까지 추적하려는 태도가 필요하다.</p> <p contents-hash="2a98318c7c064bb0a5a8b0e84e652f13faa7ec64ed878fcfa2cefcd2f0f3d913" dmcf-pid="FhOW1uMV5O" dmcf-ptype="general">전장의 비극을 우리의 일상과 같은 무게로 놓고 말할 수는 없다. 다만 AI가 먼저 정리해 준 결과를 사람이 충분히 따져보지 않은 채 받아들이는 구조는 우리의 일상생활에서도 낯설지 않다. 편리한 요약과 추천이 판단을 돕는 순간에도 그 답을 어디까지 믿고 어떤 책임을 질 것인지는 결국 인간의 몫이기 때문이다. 중요한 것은 그 사람이 무엇을 보았고, 무엇을 놓쳤으며, 어떤 근거를 검증했는가다.</p> <figure class="figure_frm origin_fig" contents-hash="71c29dd97c955ab9ae26f3782fee3f6fcded0456d7d0eacbaf6397cd9ece4356" dmcf-pid="3lIYt7Rf1s" dmcf-ptype="figure"> <p class="link_figure"><img alt="미나브 폭격 현장 [로이터 통신, 사진 제공자 Abbas Zakeri/Mehr News/WANA (West Asia News Agency)]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/yonhap/20260309140140761pmuj.jpg" data-org-width="504" dmcf-mid="PySZpbiPYX" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/yonhap/20260309140140761pmuj.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미나브 폭격 현장 [로이터 통신, 사진 제공자 Abbas Zakeri/Mehr News/WANA (West Asia News Agency)] </figcaption> </figure> <p contents-hash="44443183facc6087ca9a62eecc9eee9f310f6072d4b8103a53a7160c21a9fe08" dmcf-pid="0SCGFze4Zm" dmcf-ptype="general">미나브의 학교는 그 사실을 가장 비극적인 방식으로 보여줬다. 전쟁은 늘 기술의 발전을 앞세워 자신을 정당화해 왔다. 그러나 기술이 빨라질수록 더 엄격해야 할 것은 효율이 아니라 검증이고, 자동화의 범위가 넓어질수록 더 분명해야 할 것은 편의가 아니라 책임이다. 전장에서도 일상에서도 AI가 제시한 답과 인간의 판단 사이에 충분한 거리와 점검이 남아 있지 않다면 우리는 더 똑똑한 사회로 가는 것이 아니라 더 빠르고 더 무책임한 사회로 가게 될 것이다.</p> <p contents-hash="dc653c6478e25c4b2ac0806b18d3f87a6bf356b76371134ca609c168d181155a" dmcf-pid="pvhH3qd8tr" dmcf-ptype="general">임기범 인공지능 전문가</p> <p contents-hash="bf613cd1ec6c15b7ce84c873bc0a9dab1773d9b1461be49cc8a51b1b7da37326" dmcf-pid="UCOW1uMVGw" dmcf-ptype="general">▲ 서울과학종합대학원 대학교(aSSIST) 객원교수 ▲ 현 AI경영학회 상임이사 겸 학술분과 위원장 ▲ ㈜컴팩 CIO ▲ 신한 DS 디지털 전략연구소장 역임 </p> <p contents-hash="74d20b6ef364bfa3c0d8537d95e5cf2dc7bc0ae924ac8d96541841605afba691" dmcf-pid="7lCGFze4ZE" dmcf-ptype="general">▶제보는 카톡 okjebo</p> </section> </div> <p class="" data-translation="true">Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지</p> 관련자료 이전 임원 보수 줄인 삼성SDS, AI·클라우드 투자 지속 03-09 다음 알파고 대국 10년…AI ‘승부’에서 ‘협업’ 시대로 03-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.