배우가 "지~익" 녹음하면 … AI가 실감나는 지퍼 여는 소리로 작성일 08-11 17 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">어도비 생성AI '파이어플라이'<br>텍스트 입력해 캐릭터 만들고<br>이젠 목소리로 효과음 변환도<br>AI영상 활용 늘리는 영화업계<br>제작 속도 높이고 비용 절감<br>주인공 젊은시절 재현 기술도</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="xLX5fviByX"> <figure class="figure_frm origin_fig" contents-hash="6d3effcc5c07e49a7ea5fbd7533d6f0004ea6d338b640e84543428b071209cb8" dmcf-pid="yNt3PYg2lH" dmcf-ptype="figure"> <p class="link_figure"><img alt="영화 '퓨리오사:매드맥스 사가'에서 애니아 테일러조이(오른쪽)와 아일라 브라운이 각각 성인과 어린 퓨리오사를 맡아, AI 기반 페이스 블렌딩 기술로 두 배우의 얼굴을 점진적으로 합성해 자연스러운 연령 전환을 연출했다. 초반엔 테일러조이 얼굴의 비율이 35% 정도였으며, 성인이 되는 시점엔 80%까지 높아졌다. 워너브러더스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202508/11/mk/20250811160611243vxrv.jpg" data-org-width="1000" dmcf-mid="qR5t8yLKvq" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202508/11/mk/20250811160611243vxrv.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 영화 '퓨리오사:매드맥스 사가'에서 애니아 테일러조이(오른쪽)와 아일라 브라운이 각각 성인과 어린 퓨리오사를 맡아, AI 기반 페이스 블렌딩 기술로 두 배우의 얼굴을 점진적으로 합성해 자연스러운 연령 전환을 연출했다. 초반엔 테일러조이 얼굴의 비율이 35% 정도였으며, 성인이 되는 시점엔 80%까지 높아졌다. 워너브러더스 </figcaption> </figure> <p contents-hash="e6ea937cf35c5548835c9511d92e749259ff21e7b79af4e574e014daeed0fd63" dmcf-pid="WjF0QGaVSG" dmcf-ptype="general">영상 속 남성이 지퍼 달린 가방을 열었다. 하지만 지퍼 소리가 들리지 않았다. 어도비의 에반젤리스트, 숀 맥대니얼은 텍스트로 '지퍼(Zipper)'를 입력하고 자신의 목소리 연기를 녹음했다. 어설픈 목소리는 어도비의 '파이어플라이(Firefly)'를 거쳐 가방을 여는 소리로 둔갑했다. 생성된 소리는 원래 비디오의 움직임에 맞춰 타이밍, 강도 조절이 가능했다. 이뿐만이 아니다. '양말 괴물'을 입력하면 양말 형태의 괴물이 영상 속에 나타났고 춤을 추는 영상으로 만드는 것도 가능했다.</p> <p contents-hash="836d2960e6e3309a07644eb03f574afeb092f343f8903837792782f223d4b347" dmcf-pid="YA3pxHNfSY" dmcf-ptype="general">이는 최근 열린 어도비의 생성형 인공지능(AI) 플랫폼 파이어플라이의 신제품 발표 사전 브리핑 현장 모습이다. 맥대니얼이 직접 만든 데모 영상에는 사용자가 텍스트로 생성한 이미지가 AI 기술을 통해 움직이는 캐릭터로 변하고, 사용자의 입으로 만든 사운드가 타이밍에 맞춰 자연스럽게 삽입된다. 이제 '타이핑'만으로 영상을 만들 수 있는 시대를 넘어 AI가 영상 제작자의 '손맛'까지 구현해내는 시대가 도래한 것이다.</p> <p contents-hash="3781a9dfd47652d9f05c6e222efdfec8260ac20663d6b87beb451c2b3e1bd08a" dmcf-pid="Gc0UMXj4TW" dmcf-ptype="general">이날 브리핑을 진행한 지크 코프 어도비 파이어플라이 프로덕트 매니지먼트 총괄 부사장은 어도비가 새롭게 출시한 파이어플라이에 세 가지 핵심 기능을 탑재했다고 밝혔다. 첫째는 사운드 효과 생성 기능으로, 텍스트뿐 아니라 사용자의 목소리를 통해 소리의 강약, 리듬까지 제어할 수 있다. 예를 들어 '지퍼 여는 소리'를 입력하고 실제 지퍼를 여는 듯한 소리를 흉내 내 녹음하면, AI가 다양한 버전의 지퍼 소리를 생성해준다.</p> <p contents-hash="11aafd83bf17dad8b06e8f87d7318fdde54f44e369d3fc70098659d4a1ffa4b3" dmcf-pid="HkpuRZA8yy" dmcf-ptype="general">둘째는 '텍스트를 아바타로' 기능이다. 텍스트 대본을 입력하면 실제 사람처럼 말하는 가상의 프레젠터 영상이 자동 생성된다. 아바타, 배경, 스타일도 자유롭게 선택할 수 있어 교육 콘텐츠나 소셜미디어용 영상 제작에 즉각 활용할 수 있다. 셋째는 영상 생성 기능의 고도화다. 기존에는 텍스트 기반의 단순한 애니메이션 수준에 그쳤다면 이제는 사용자가 직접 촬영한 영상의 움직임을 기준으로 3D 캐릭터, 클레이 애니메이션, 판타지 아바타 등 다양한 스타일로 재생성할 수 있다. 마치 모션캡처처럼 사용자의 움직임을 반영한 영상 콘텐츠가 AI로 구현되는 셈이다.</p> <figure class="figure_frm origin_fig" contents-hash="fc0c5b9d294d312cfb9d8ef661cb9393a54fc4f25b4e44d9a2b9a5f30aa87f38" dmcf-pid="XEU7e5c6ST" dmcf-ptype="figure"> <p class="link_figure"><img alt="영화 '히어'에서 톰 행크스와 로빈 라이트의 얼굴을 젊어보이게 하는 데 AI 기술이 활용됐다. 소니픽쳐스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202508/11/mk/20250811160612542cglc.jpg" data-org-width="1000" dmcf-mid="QBYH9he7TZ" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202508/11/mk/20250811160612542cglc.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 영화 '히어'에서 톰 행크스와 로빈 라이트의 얼굴을 젊어보이게 하는 데 AI 기술이 활용됐다. 소니픽쳐스 </figcaption> </figure> <p contents-hash="8d5d7afc6dd7ba7ec666b00bedc7dbab2c7c17c6e7b73e4c6e55085d78a9bd37" dmcf-pid="ZDuzd1kPvv" dmcf-ptype="general">어도비는 특히 파이어플라이가 상업적으로 안전한(Commercially Safe) AI 모델이라는 점을 강조했다. 파이어플라이 애플리케이션에서 생성한 모든 AI 결과물에는 어떤 모델이 사용됐는지 '디지털 영양성분표시'와 같은 형태의 '콘텐츠 자격증명'이 첨부되고 사용자의 입력 데이터 콘텐츠는 AI 학습에 쓰이지 않는다. 구글, 오픈AI, 런웨이 등 외부 AI 모델도 파이어플라이 플랫폼 내에서 활용할 수 있지만 학습되지는 않는다.</p> <p contents-hash="91ed690797724998b56174d881d88f87a92105ad99f7e84f9218addbcaaec0f4" dmcf-pid="5w7qJtEQWS" dmcf-ptype="general">어도비의 파이어플라이처럼 AI 기술이 빠르게 발전하면서 영상 산업에 거센 물결을 일으키고 있다. 이미지 생성에서 출발한 생성형 AI는 이제 영상 제작으로 무대를 넓히고 있으며, 글로벌 콘텐츠 기업들도 이 흐름에 적극적으로 뛰어들고 있다.</p> <p contents-hash="e98fb0993a1f95169fc60343218abed52e8dc395bd150574386196168973b179" dmcf-pid="1rzBiFDxhl" dmcf-ptype="general">블룸버그에 따르면 최근 세계 최대 온라인동영상서비스(OTT) 기업인 넷플릭스는 생성형 AI 스타트업 '런웨이AI(Runway AI)'의 영상 제작 도구를 콘텐츠 제작에 실제로 활용 중이다. 뉴욕에 본사를 둔 런웨이는 텍스트 프롬프트를 통해 영상 클립을 생성하는 기술을 선보인 바 있으며, AI 영상 기술을 상용화한 대표 기업 중 하나로 꼽힌다. 디즈니 역시 해당 기술을 테스트 중인 것으로 알려졌다.</p> <p contents-hash="7c3718b1f8093e9ab882936260ec18ee02f8268bd47981dfb2f73ac35f8f465a" dmcf-pid="th2fN7Iihh" dmcf-ptype="general">넷플릭스는 최근 아르헨티나 드라마 '엘 에테르나우트'에서 무너지는 건물 장면에 AI 기반 시각효과 기술을 처음으로 활용했다. 다만 이 장면에 런웨이의 기술은 사용되지 않았다. 테드 서랜도스 넷플릭스 최고경영자(CEO)는 "AI를 통해 시각효과 제작 속도를 높이고 비용을 줄이고 있다"고 밝히며 AI 기술의 적극적인 활용 의지를 내비쳤다.</p> <p contents-hash="6683f3af884e9b4c7fe674258feb989cff211ded91c4fc6212601f856a0cc75f" dmcf-pid="FlV4jzCnWC" dmcf-ptype="general">영상 생성 AI는 특히 시각효과(VFX) 분야에서 기존 제작 방식 대비 저렴하고 빠른 결과물을 제공할 수 있어 주목받고 있다. 전통적으로 수 주일에서 수개월이 걸리던 영상 효과 작업을 AI는 단 몇 분~몇 시간 만에 구현할 수 있다. 이는 드라마, 영화, 광고, 사회관계망서비스(SNS) 콘텐츠 제작 전반에 걸쳐 '생산성 혁신'을 가능하게 한다. 실제로 광고 업계에서는 이미 생성형 영상 AI를 적극 활용 중이다. 코카콜라는 2023년부터 런웨이의 AI 기술을 활용해 짧은 영상 콘텐츠를 제작하고 있으며 덴츠, 퍼블리시스 등 글로벌 광고 대행사도 AI 영상 편집 도입을 가속화하고 있다. </p> <p contents-hash="7d51ca0dfa5927ee2487c1495fb0dc3907be0037398cd22b6c80054687a2bc09" dmcf-pid="3Sf8AqhLvI" dmcf-ptype="general">할리우드 메이저 스튜디오들도 AI 기술을 실험적으로 도입하고 있다. 마틴 스코세이지 감독의 영화 '아이리시맨'은 AI 디에이징 기술을 활용해 주연 배우들의 젊은 시절 얼굴을 재현했으며, 이 기술로 아카데미 시각효과상 후보에 오르기도 했다. 최근 개봉한 '퓨리오사: 매드맥스 사가'에서는 아역 배우와 성인 배우의 얼굴을 AI로 자연스럽게 이어 붙이는 기술이 쓰였다. AI가 영상 제작에 도입되면 배우의 외모 변화나 물리적 제약 없이 다양한 연령대의 역할을 소화하거나 가상 캐릭터를 만들 수 있어 콘텐츠 제작의 자유도가 높아진다. 이는 특히 프랜차이즈 영화나 게임 기반 IP 확장에 큰 영향을 줄 수 있다.</p> <p contents-hash="d8e305ad8405ccb3726a87f7febe3916534dcd18415942cc81d54277bb9d44dc" dmcf-pid="0v46cBlolO" dmcf-ptype="general">영상 생성 AI 시장의 가능성에 주목한 빅테크 기업들도 속속 진입 중이다. 오픈AI는 2024년 초 영상 생성 모델 '소라(Sora)'를 발표한 이후 디즈니, 워너브러더스 등 주요 스튜디오와 상용화 협의를 진행하고 있는 것으로 전해졌다. 구글도 자사 생성형 AI '비디오포에버(VideoPoet)'를 통해 텍스트 기반 영상 생성 기술을 시험 중이며, 메타 역시 AI로 생성한 짧은 영상 클립을 인스타그램 릴스나 페이스북 광고에 활용하는 방안을 테스트하고 있다.</p> <p contents-hash="81f0aa65d5973196d968d8dff3bf54331a5f21235311e0bf65c508755f6668e3" dmcf-pid="pT8PkbSgls" dmcf-ptype="general">[실리콘밸리 원호섭 특파원]</p> </section> </div> <p class="" data-translation="true">Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지</p> 관련자료 이전 "자율주행, 극한환경서 더 필요 … 국방·광산·농업이 블루오션 될 것" 08-11 다음 '판례 빅테이터' 3만건 분석 … 횡령·배임 실시간으로 추적 08-11 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.