‘AI 전쟁’ 시험대가 된 미국의 ‘이란 공습’ 작성일 03-09 26 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="6DCDEm5TCz"> <div contents-hash="87d06ad2fd5c4f7669d29e7c1b264436acd916344c05951d856a130602c2d868" dmcf-pid="PwhwDs1yC7" dmcf-ptype="general"> [AI요약] AI 챗봇이 미사일을 발사하거나 드론을 제어하지 않더라도 더 큰 규모의 군사 시스템에 통합될 수 있다. 이는 AI가 그 자체로는 무기가 아니지만 무기 시스템의 일부가 될 수 있다는 의미다. 실제로 이란과의 전쟁 발발 후 24시간 이내에 미국은 이란의 1000개의 목표물을 공격했는데, 이는 매우 짧은 시간 안에 진행된 엄청난 공격 횟수로 기록됐다. 그러나 이러한 AI 활용은 센서 데이터에서 AI 해석, 목표물 선택, 무기 작동에 이르는 과정이 인간의 통제나 인지 없이 이뤄질 수 있다는 우려의 목소리가 나오고 있다. </div> <figure class="figure_frm origin_fig" contents-hash="9632396ad3456509475f14b73638ebe548042c12795ee951548787782cb77714" dmcf-pid="QrlrwOtWhu" dmcf-ptype="figure"> <p class="link_figure"><img alt="미국의 ‘이란 공습’이 AI전쟁의 시험대가 됐다. (이미지=팔란티어 테크놀로지스)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309081957316myib.jpg" data-org-width="700" dmcf-mid="fN0Upze4hb" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309081957316myib.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미국의 ‘이란 공습’이 AI전쟁의 시험대가 됐다. (이미지=팔란티어 테크놀로지스) </figcaption> </figure> <p contents-hash="6f53a3ebad74bd4115914cdf6fec2c858644653b1e630f2bcaebb92079c02242" dmcf-pid="xmSmrIFYSU" dmcf-ptype="general">미국의 이란 공습이 AI에 기반하는 새로운 전쟁 시대의 도래를 알렸다. </p> <p contents-hash="2423ed1fe85373aa0b86c9d7085ad1a9b3d3093abc57ed7de0c4998531ed44c9" dmcf-pid="yK6KbVgRCp" dmcf-ptype="general">도널드 트럼프 미국 대통령의 명령으로 이뤄진 미국의 이란 공습 현황과 전망에 대해 블룸버그, 워싱턴포스트 등 외신이 7일(현지시간) 보도했다. </p> <p contents-hash="7f720823bfd40fe3ae116a6d225f40a8896319434ef94a5dda97d7b6287d3e2e" dmcf-pid="W9P9Kfaeh0" dmcf-ptype="general">미국과 이스라엘, 이란이 중동 곳곳에서 일주일 넘게 전쟁을 이어가고 있는 가고 있다. 미국과 이스라엘은 표면상으로는 이란의 핵 프로그램을 이유로 공격을 감행했다는 입장이지만, 사실 정권 교체를 목표로한 전쟁이라는 시각이 지배적이다. 실제로 트럼프 대통령은 이란 차기 지도자 선택 과정에 대한 개입 의지를 노골적으로 밝혔다. </p> <p contents-hash="7127e2da90293ca877fb7cc28d6f6e704b73b76347bffc600228904cc8bcc99f" dmcf-pid="Y2Q294NdT3" dmcf-ptype="general">이에 앞서 선도적인 AI 기업인 앤트로픽은 최근 미 국방부가 제안한 계약, 즉 미군이 ‘모든 합법적인 목적’으로 자사 기술에 ‘무제한 접근’을 허용하는 계약에 서명하기를 거부했다. </p> <p contents-hash="eab4b2c97ab5d2fb0f93728cd709b03c0a66a6ddf76792b25a94bd98983227d9" dmcf-pid="GVxV28jJTF" dmcf-ptype="general">이 결정으로 앤트로픽은 막대한 손실을 입었다. 트럼프 대통령이 모든 미국 정부 기관에 앤트로픽의 고급 대규모 언어 모델(LLM)과 대화형 챗봇인 클로드(Claude)의 사용을 중단하라고 명령했기 때문이다. </p> <p contents-hash="cf048d8181fca7b6cc0a78b54ddd05ab116a33ebf4eb7c7677ae2554d7426938" dmcf-pid="HNwNacWITt" dmcf-ptype="general">피트 헤그세스 미 국방장관은 앤트로픽을 ‘공급망 위험’ 업체로 지정했으며 이는 회사의 다른 계약 가능성에도 영향을 미칠 수 있다. 이에 경쟁사인 오픈AI는 재빨리 미 국방부와 계약을 체결하는데 성공했다. </p> <p contents-hash="6b68bc683d7f17475e3a61b0610b04e18b787002da04824ed6d52600274b1806" dmcf-pid="XjrjNkYCC1" dmcf-ptype="general">앤트로픽의 CEO인 다리오 아모데이는 계약 서명 조건으로 두 가지 명확한 예외 조항을 제시했는데, 바로 미국인에 대한 대규모 감시 금지와 인간의 감독이 없는 완전 자율 무기 금지였다. 그리고 바로 다음 날인 2월 28일 미국과 이스라엘은 이란에 대한 대규모 공세를 시작했다. </p> <p contents-hash="ff3f75a077b15ee0009e4ee8d99d0c4771c1b2c95b44d5d99c274a5650c414a7" dmcf-pid="ZAmAjEGhy5" dmcf-ptype="general">티모스 호킨스 미 중부사령관 대변인은 이란 공세 당시 “이란 작전에 사용되는 AI 도구들이 표적 선정이나 인간의 판단을 대신하는 것은 아니다”라며 “하지만 더 빠르고 현명한 결정을 내리는 데 도움을 준다”고 강조했다. </p> <p contents-hash="788d2ed6565e9b44f661a737ae37532c6f3d48d0f88d73ef73c5a32970ade78b" dmcf-pid="5cscADHlCZ" dmcf-ptype="general">지난 몇 년간 미군은 ‘1000가지 결정’이라는 특정 훈련에 집중해 왔는데, 이는 지휘관들은 다양한 데이터를 분석해 1시간 안에 1000개의 목표물을 아군과 적군으로 판별하는 훈련을 실시하는 것이다. </p> <p contents-hash="6e70345180645a44f7b127927c4d7ac3d77bf1aa5282a2815dc35ad1746db99d" dmcf-pid="1kOkcwXSlX" dmcf-ptype="general">실제로 이란과의 전쟁 발발 후 24시간 이내에 미국은 이란의 1000개의 목표물을 공격했는데, 이는 매우 짧은 시간 안에 진행된 엄청난 공격 횟수로 기록됐다. 브래드 쿠퍼 미국 중부사령부 사령관은 해당 공격에 대해 “이는 2003년 이라크에 대한 미국의 ‘충격과 공포’ 작전의 거의 두 배 규모”라고 설명했다. </p> <div contents-hash="3aae68d53324f5c68e7c21af59031bde9bb3feb800c3fcd62c1ddce20d2a7267" dmcf-pid="tEIEkrZvTH" dmcf-ptype="general"> 270개 인권 단체 연합인 ‘킬러로봇 저지’(Stop Killer Robots)와 같은 비판론자들은 AI 기반 의사결정 지원 시스템이 공격 권고와 실행 사이의 경계를 ‘위험할 정도로 모호하게’ 만든다고 지적하고 있다. </div> <figure class="figure_frm origin_fig" contents-hash="66f6ccf8c82c6cbffce7b01b9dd4f75e6f1ce939b7c8ef54e73e69fd570b6815" dmcf-pid="FDCDEm5TCG" dmcf-ptype="figure"> <p class="link_figure"><img alt="이란 공격 작전에 사용된 AI 기술 중 하나는 팔란티어가 개발한 ‘메이븐 스마트 시스템’이다. (이미지=팔란티어 테크놀로지스)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309081958918mojo.jpg" data-org-width="700" dmcf-mid="43LgojTsCB" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309081958918mojo.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이란 공격 작전에 사용된 AI 기술 중 하나는 팔란티어가 개발한 ‘메이븐 스마트 시스템’이다. (이미지=팔란티어 테크놀로지스) </figcaption> </figure> <p contents-hash="264e276a90d831a811d6b063391e77cb881f42d3bcd9d3704a313477185c4e55" dmcf-pid="3whwDs1yhY" dmcf-ptype="general">이란 공격 작전에 사용된 AI 기술 중 하나는 팔란티어 테크놀로지스가 개발한 디지털 임무 통제 플랫폼인 ‘메이븐 스마트 시스템’(Maven Smart System)인 것으로 알려진다. 이 시스템은 미 국방부가 2017년부터 전장용 AI 개발을 위해 시작한 메이븐 프로젝트(Project Maven)에서 탄생했다. </p> <p contents-hash="4f1fd8594811a68ec5bead922cf93d7d471b8fa0b03fe78769c5106ee728c6f7" dmcf-pid="0rlrwOtWTW" dmcf-ptype="general">당시 구글은 미 국방부와 드론 감시 영상 분석 계약을 맺었는데 이에 4천 명의 구글 직원들이 감시는 회사의 임무가 되어서는 안 된다며 프로젝트에 항의했으며, 결국 구글은 메이븐 계약을 갱신하지 않겠다고 발표한바 있다. 이후 구글은 무기 및 감시와 관련된 AI 윤리 강령을 발표했다. </p> <p contents-hash="fd4fceefb01d269ee8dfde1f77bf2f64a2d814baebf5730811bc4e5392a29248" dmcf-pid="plGlhT71Wy" dmcf-ptype="general">메이븐 스마트 시스템에 설치된 대규모 언어 모델 중에는 앤트로픽의 클로드 AI 도구가 있으며, 이는 이란에 대한 미국의 작전과 메이븐 개발 가속화에 핵심적인 역할을 한 것으로 나타났다. </p> <p contents-hash="7e00d82e249917897997daabf30295657ee1082052f4f1ac63e760a6b73b8917" dmcf-pid="USHSlyzthT" dmcf-ptype="general">그럼에도 불구하고 미 국방부가 앤트로픽을 공급망 위험 업체로 지정하고 정부처 사용금지를 결정한 것은 아이러니하다. 이러한 지정은 일반적으로 미국의 적대국에 적용되는 것이기 때문이다. </p> <p contents-hash="8acc558daf0f7210485f4efab353f84778ea422352ae7bff6bc67429429a7ffa" dmcf-pid="uvXvSWqFSv" dmcf-ptype="general">무기 시스템의 일부가 된 AI 챗봇은 정보를 신속하게 요약하고 목표물 목록을 생성하며 우선순위가 높은 위협을 순위별로 분류하는 등 공격 대상을 추천할 수 있다. 여기서 핵심 위험은 센서 데이터에서 AI 해석, 목표물 선택, 무기 작동에 이르는 과정이 인간의 통제나 인지 없이, 또는 최소한의 통제 안에서 이루어질 수 있다는 점이다. </p> <p contents-hash="11761741979a9f90fef6f7afe3085466a3bd8577a89495100bbd551e8b566495" dmcf-pid="7TZTvYB3SS" dmcf-ptype="general">완전 자율 무기는 일단 작동되면 인간의 개입 없이 독립적으로 군사 작전을 수행하는 군사 플랫폼이다. 카메라, 레이더와 같은 센서와 AI 알고리즘을 사용해 환경을 분석하고 목표물을 탐색, 선택, 공격하게 된다. </p> <p contents-hash="45989d306754f758bcbde3d68a4bc4ecdb59c16e3063f4f06f987383e201d5dc" dmcf-pid="zy5yTGb0Wl" dmcf-ptype="general">예를 들어, 첨단 헬리콥터는 이미 인간의 개입 없이 운용되고 있는데, 여기에 완전 자율 무기가 등장하면 인간의 통제와 감독은 사라지고, AI가 최종 공격과 전장 결정을 내리게 된다. 최근 이뤄진 한 연구에서 첨단 AI 모델이 모의 전쟁 게임에서 95%의 확률로 핵무기 사용을 선택했다는 결과가 나온 것을 고려하면 이는 매우 우려스러운 부분이다. </p> <div contents-hash="0946919e884c42c6ef9c82e67f204b37a07c0fbfa67123f400a0a88b17bc8d58" dmcf-pid="qW1WyHKpSh" dmcf-ptype="general"> 특히 AI 모델도 오류를 범할 수 있으며 작은 오류라도 수백만 명에게 시스템이 적용될 경우 위험한 수준으로 확대될 수 있다. AI 모델이 불투명하다는 문제도 있다. 데이터를 분석하고 결론에 도달하는 방식을 인간이 완전히 이해하기 어렵기 때문에 결과에 이의를 제기하기도 어렵다. </div> <figure class="figure_frm origin_fig" contents-hash="c1722a0c4738fc1a663eec7aa5466642716611db4bcb64b74e5d9f2ffe58a4e6" dmcf-pid="BYtYWX9UTC" dmcf-ptype="figure"> <p class="link_figure"><img alt="미 국방부는 2017년부터 전장용 AI 개발을 위해 ‘메이븐 프로젝트’를 시작했다. (이미지=팔란티어 테크놀로지스)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309082000433zfrd.jpg" data-org-width="700" dmcf-mid="8FTOsh0Hlq" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/09/552816-OGTrtXj/20260309082000433zfrd.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미 국방부는 2017년부터 전장용 AI 개발을 위해 ‘메이븐 프로젝트’를 시작했다. (이미지=팔란티어 테크놀로지스) </figcaption> </figure> <p contents-hash="2a0fdeb12daf242e8c18db709770508c573a9f1680fcda80aaf132b6e0f6f0dd" dmcf-pid="bGFGYZ2uWI" dmcf-ptype="general">이에 미 국방부가 AI 사용을 위해 앤트로픽에 요구한 ‘모든 합법적인 목적’이라는 문구는 안전장치처럼 들릴 수 있지만, 실제로는 미 정부가 계약상의 제한 없이 합법적이라고 판단되는 모든 목적으로 AI를 사용할 수 있다는 것을 의미한다. </p> <p contents-hash="1d87265887270cc7f6c07103bb551e83d9891794a077402b92ddf3a597eac027" dmcf-pid="KH3HG5V7vO" dmcf-ptype="general">일각에서는 이러한 사건들이 앤트로픽이 특별히 원칙적이거나 미 국방부가 특별히 까다롭다는 것을 의미하는 것은 아니라고 관측한다. 이는 AI가 더욱 강력해짐에 따라 끊임없이 제기될 중요한 문제, 즉 ‘국가 안보와 관련된 AI 사용에 대한 제한을 누가 정하는가’에 대한 문제라는 분석이다. </p> <p contents-hash="5112e9149c6d8b3464a4f47957b8cad41ee278e2f5d78befceeb7d73cfdc01f9" dmcf-pid="9X0XH1fzvs" dmcf-ptype="general">만약 ‘모든 합법적 목적’이 기본 원칙이 된다면 안전장치는 정치와 법률 해석에 좌우될 수 있다는 비판이 나오는 이유다. </p> <p contents-hash="30cef88b72a0b200729d43cfa1edcf6f02e3a0d5b71bead458567e310d8fae21" dmcf-pid="2rlrwOtWCm" dmcf-ptype="general">호킨스 미 중부사령관 대변인 “군의 인공지능 지원 활용은 미국의 정책, 군사 교리, 그리고 법률에 부합하는 엄격한 절차를 따른다”며 “AI는 분석가들이 집중해야 할 대상을 좁혀나가도록 돕고 이른바 ‘관심 지점’을 생성해 이란 작전에서 현명한 결정을 내릴 수 있도록 지원한다”고 강조했다. </p> <p contents-hash="b9bf8aa1d1164451018fedc14ba773c4e0b263c1240eee07886298e4cebe01e8" dmcf-pid="VmSmrIFYTr" dmcf-ptype="general">그는 또 “AI는 시스템 내 데이터를 추출하고 정보를 정리해 명확성을 제공하는 데에도 도움을 주는 역할을 한다”고 덧붙였다. </p> <p contents-hash="fe7ece16c21e7aedb2b9d8b1e253f149ee0a4e2ddb58dbeb8ce8c8f77f724691" dmcf-pid="fsvsmC3Gvw" dmcf-ptype="general">아모데이 앤트로픽의 CEO는 “미 국방부의 공급망 위험 지정은 군수업체가 앤트로픽의 AI 모델 클로드를 미군과의 직접적인 계약의 일환으로 사용하는 경우에만 금지하는 것”이라며 “그러한 계약을 체결한 모든 고객의 클로드 사용에 대해 금지하는 것은 아니다”라고 성명을 통해 밝혔다. </p> <p contents-hash="b9661af4e5d1c928d9f7dd930a714acf0013ec6006ff1427a75c527f8895e650" dmcf-pid="4OTOsh0HCD" dmcf-ptype="general">그는 “우리는 이번 조치가 법적으로 정당하지 않다고 생각하며 법정에서 이의를 제기하는 것 외에는 다른 선택이 없다”고 강조했다. </p> <p contents-hash="b0f932b2d4bb0cdbbdb4e00af86f385b3fba073a4838fe89ca9d6df0a3d40f73" dmcf-pid="8IyIOlpXvE" dmcf-ptype="general">저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지</p> </section> </div> 관련자료 이전 박보검, '명량' 김한민 감독 손 잡았다..'칼: 고두막한의 검' 크랭크인 [공식] 03-09 다음 "즐기는 자 이길 순 없어요" 19세 김윤지, '새 역사' 썼다 03-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.