[인터뷰] "LLM만으로는 비즈니스 문제 못 푼다"…에이전틱 AI 성공의 조건 작성일 04-30 6 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">마리넬라 프로피(Marinella Profi) SAS 에이전틱 AI 글로벌 시장 전략 책임자</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="BFHf4NHlW1"> <figure class="figure_frm origin_fig" contents-hash="6dd806d9ac701cbb6c97ef652b126492ad07b269453344171e080fc854f0ab8a" dmcf-pid="b3X48jXSC5" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/30/552796-pzfp7fF/20260430060027469fvhy.jpg" data-org-width="640" dmcf-mid="zcLlSUiPhF" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/30/552796-pzfp7fF/20260430060027469fvhy.jpg" width="658"></p> </figure> <p contents-hash="f26e87a50bf3c1411c4720aa2cc568171f03fa02321b0013c7ba5dba608cddd5" dmcf-pid="K0Z86AZvvZ" dmcf-ptype="general">[그레이프바인(미국)=디지털데일리 이상일기자]<strong> "단순히 수행하는 AI에서 행동하는 AI로의 전환이 일어나고 있다. 이는 신뢰와 거버넌스를 둘러싼 완전히 새로운 환경을 만들어낸다."</strong></p> <p contents-hash="f73f2ebe7592e3ec5557d87b07eff67b7be26bd25bc8f103b177a5d570a5d69e" dmcf-pid="9p56Pc5TWX" dmcf-ptype="general">미국 텍사스주 그레이프바인에서 4월 27일부터 30일까지(현지시간) 열리는 ‘SAS Innovate 2026’에서 마리넬라 프로피(Marinella Profi) 쌔스(SAS) 에이전틱 AI 글로벌 시장 전략 책임자는 인터뷰를 통해 기업 AI 시장의 무게중심이 빠르게 이동하고 있다고 진단했다.</p> <p contents-hash="9c4a6af66558685a18d8bfcaa4485fa26a649b1a5d5ff7e3485c65704702365e" dmcf-pid="2U1PQk1ySH" dmcf-ptype="general">생성형 AI 활용을 실험하던 단계를 넘어, 스스로 판단하고 행동하는 에이전틱 AI를 실제 운영 환경에 적용하는 단계로 접어들었다는 것이다. 다만 기술의 가능성에 대한 기대와 실제 준비 수준 사이에는 아직 간극이 있다고 봤다.</p> <p contents-hash="eca974264a10d8d579a3147c391f87f8a8d58450198fb64fd4ee14352288cfbc" dmcf-pid="VutQxEtWyG" dmcf-ptype="general">프로피 책임자는 에이전틱 AI에 대한 관심이 커지고 있지만 무작정 도입에 나서서는 안 된다고 강조했다. 그는 "모든 문제에 AI 에이전트가 필요한 것은 아니다. 에이전트를 무분별하게 적용하는 단계로 넘어갈 필요는 없다"며 "기업에 데이터 품질 문제나 거버넌스 문제, 데이터 사일로 문제가 있다면 에이전트에 투자하기 전에 먼저 그 문제를 해결해야 한다"고 조언했다.</p> <div contents-hash="1aad379534e8d1a0d69a9365ed4a6c971d8c1ba12f75e0c30d4a7a91b0fbad67" dmcf-pid="f7FxMDFYyY" dmcf-ptype="general"> 출발점도 명확히 제시했다. "처음부터 엔터프라이즈급 에이전트를 구축하려고 하지 말고 반복적인 의사결정이 필요한 매우 구체적인 사용 사례를 위한 에이전트를 구축해야 한다. 일주일에 여러 차례 반복되는 동일한 판단처럼, 작지만 측정 가능한 업무에서 출발해야 한다"고 강조했다. </div> <figure class="figure_frm origin_fig" contents-hash="dfce7f068452b20072c3d2aa5222d0c6b5423cf278df65ce2a92131396126086" dmcf-pid="4XTbKnTsyW" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/30/552796-pzfp7fF/20260430060028862kaxl.png" data-org-width="640" dmcf-mid="qP1PQk1yTt" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/30/552796-pzfp7fF/20260430060028862kaxl.png" width="658"></p> </figure> <p contents-hash="9b19143f2dd395847b9e2a452f7fdd3b5ac650cd03ae563cc15011a1f247507c" dmcf-pid="8ZyK9LyOWy" dmcf-ptype="general">프로피 책임자는 "대부분의 기업이 에이전트의 잠재력에 막대한 투자를 하고 있지만 여전히 개념검증 단계에 머물러 있다"고 지적했다. 개념검증이 중단되는 이유로는 책임 구조의 부재를 꼽았다. "많은 개념검증이 중단되거나 취소되는 이유는 기업들이 '문제가 생기면 누가 책임을 지는가'라는 질문에 답할 준비가 되어 있지 않기 때문"이라는 설명이다.</p> <p contents-hash="2ffaa43dc9bb2261e7d7d0d08a3dcdadf89a85f0142d814615a9e6281ed26d26" dmcf-pid="65W92oWICT" dmcf-ptype="general">에이전틱 AI가 경영진의 승인을 얻으려면 기술적 성능만으로는 부족하다. 프로피 책임자는 "모델의 정확도나 사기 예측 성능 같은 데이터 과학 지표를 투자수익률(ROI)로 전환하는 능력이야말로 현재 가장 중요한 부분"이라고 말했다. 다만 보편 공식은 없다고 했다. 사용 사례와 산업에 따라 달라진다는 것이다.</p> <p contents-hash="41f0ea0a85f37aad5416262e16a4d57c308e795e319e92678f37770b57f59341" dmcf-pid="P1Y2VgYCSv" dmcf-ptype="general">이번에 소개된 SAS 바이야(SAS Viya) 코파일럿(Copilot)에 대해서는 단순한 보조 도구를 넘어 자율 실행 단계로 발전하고 있다고 설명했다.</p> <p contents-hash="8f038eaa62352244844471dd6e915200caefc5ac38b1fb12cb240ea3f1de7ab9" dmcf-pid="QtGVfaGhSS" dmcf-ptype="general">"데이터 준비부터 모델링, 대시보드 생성, 의사결정 지원에 이르기까지 분석 라이프사이클 전반의 AI 관련 업무를 돕는 전문 어시스턴트 역할을 하도록 설계됐다"는 것이다. 적용 영역도 산업을 초월한다고 했다. 사기 탐지, 공급망, 제조업, 수요 예측 등이 초기 적용 영역으로 거론됐다.</p> <p contents-hash="ebac73fda27d4f146dcc063544bd1d87cff79bda537b80ac936a8de8bcba3051" dmcf-pid="xFHf4NHlCl" dmcf-ptype="general">한편 생성형 AI 모델의 출력물을 다른 생성형 AI 모델의 학습 데이터로 활용하는 접근에 대해서 그는 단호하게 반대했다. 그는 "LLM을 이용해 다른 LLM을 훈련시키는 것은 컴퓨팅 비용과 토큰 비용만 증가시킬 뿐이며, 좋은 정확도를 얻을 수 없어 모델 붕괴의 위험에 처하게 된다. 대안은 기업 데이터의 안전한 활용"이라고 강조했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털데일리. All rights reserved. 무단 전재 및 재배포 금지.</p> 관련자료 이전 ‘PQC’ 뭐길래… 블록체인 업계, 도입 분주 [코인 양자컴 리스크 ④] 04-30 다음 대동로보틱스, 2030년 'AI 로봇 플랫폼' 도약…비농업 분야 확장 04-30 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.