[분석] 말 줄이고 생각은 더 하는 GPT-5의 행동 기반 추론 진화 작성일 03-05 11 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">자연스러워짐 뒤에 숨은 구조 변화 <br>완충 문장 축소 순수 계산 경로 강화 <br>설명 중심 모델서 연산 책임 모델로</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="KF6S5ZQ9Gl"> <figure class="figure_frm origin_fig" contents-hash="9573d47738327d5b0b88b300f027dcdf350d07b38aee96e7f8a1033748bb8ca6" data-idxno="455783" data-type="photo" dmcf-pid="93Pv15x2Hh" dmcf-ptype="figure"> <p class="link_figure"><img alt="오픈AI가 '챗GPT'의 기본 모델을 'GPT-5.2 인스턴트'에서 'GPT-5.3 인스턴트'로 업데이트했다." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/05/552814-8XPEppr/20260305123007206gxtz.jpg" data-org-width="691" dmcf-mid="b1JXuUnQtS" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/05/552814-8XPEppr/20260305123007206gxtz.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 오픈AI가 '챗GPT'의 기본 모델을 'GPT-5.2 인스턴트'에서 'GPT-5.3 인스턴트'로 업데이트했다. </figcaption> </figure> <p contents-hash="cfd4c64deb53972e2df1042fd33bf5d995e2fe6bfb3ab22bfd39f3dc8bac3bc1" dmcf-pid="20QTt1MVXC" dmcf-ptype="general">말보다 먼저 도착하는 정보가 있다. 사실과 행동에서 나온다. 움직임 하나만으로도 상대에게 마음은 대부분 읽힌다. 말로 설명하기 전에 이미 정보가 넘어간 상태기 때문이다. 이런 방식의 화법을 공감 표현보다 한 단계 더 나아간 행동 기반 추론(behavioral inference)이라 한다.</p> <p contents-hash="1ffd5c60d8ecf9a634fcc285466ee5ed27695f1975e7bbca85329ac4e41bdf92" dmcf-pid="VpxyFtRftI" dmcf-ptype="general">이런 구조에는 빠져나갈 틈이 거의 없다. "그럴지도 모른다", "어떻게 알았냐" 같은 우회가 들어갈 자리가 없다. 행동은 이미 정보가 되어 있다. 인공지능(AI) 모델이 완충 문장을 줄이고 직접 계산 경로를 강화하는 변화도 닮아 있다. 말로 시간을 버는 대신 정보와 행동을 근거로 연산하는 방식이다.</p> <p contents-hash="8bf83c3ed711ec7b96caf98fb59c34ea843a02e64de942b508a470a97d33098b" dmcf-pid="fMwBP6mjZO" dmcf-ptype="general">오픈AI 인공지능 모델 GPT-5가 크게 달라졌다. 사용자들은 "더 자연스러워졌다"고 평가한다. 하지만 5.3 버전에서 일어난 변화는 '말투'가 아니다. 판단을 미루는 완충 문장을 줄이기로 한 것이다. 지금까지 AI는 확신이 낮은 질문 앞에서 판단을 미루며 시간을 벌어왔다. 이번 업데이트는 그 우회로를 차단한 기술이 적용된 것으로 분석된다.</p> <p contents-hash="278621d836785629942076cbc592dbaa21c0228a4c221f72b21a6d323443814c" dmcf-pid="4RrbQPsA5s" dmcf-ptype="general">5일 오픈AI는 GPT-5.3 인스턴트를 주력 모델로 공개하며 "불필요한 거절 감소, 방어적 표현 완화, 대화 흐름 개선, 환각 감소"를 주요 변화로 제시했다. 응답이 부드러워졌고 덜 방어적으로 느껴진다는 평가다. 그러나 내부 작동 방식을 보면 이번 업데이트의 핵심은 말투 개선이라기보다 말로 버티던 구간을 줄인 구조 변화에 가깝다.</p> <p contents-hash="df6a7d35134903d918992aaee1b3da7a1b4dff5367fc25621fc09365092681d7" dmcf-pid="8emKxQOcYm" dmcf-ptype="general">지금까지 거대 언어 모델은 판단이 모호할 때 계산을 더 하기보다 표현을 바꾸는 방식으로 시간을 벌어 왔다. "그렇게 보기는 어렵다", "관점에 따라 다르게 해석될 수 있다", "단정하기는 어렵지만" 같은 완충 문장이 대표적이다. 이런 표현은 실제로 새로운 정보를 전달하기보다는 결론을 미루고 안전한 확률 영역으로 이동하기 위한 판단 지연 장치로 작동한다.</p> <p contents-hash="1fe3c391664bff2d0653ea8b8d41ec984f924b31b5ca41116521cf53faf15c2a" dmcf-pid="6ds9MxIkHr" dmcf-ptype="general">모델이 확신이 낮은 상황에서 추가 추론을 수행하기보다 언어로 계산을 대신하는 방식이다. 이러한 전략은 계산 비용과도 연결된다. 명확한 결론을 내려면 더 깊은 추론 단계가 필요하고 그만큼 연산 비용이 증가한다. 완충 문장은 이 비용을 줄이는 우회 경로였다. 사용자는 답을 들었다고 느끼고 모델은 추가 계산을 하지 않아도 되는 구조다.</p> <p contents-hash="e2a5eedd647ed393823867d9185f85d89ce292128d5cdb038e6239690903bdc1" dmcf-pid="PJO2RMCE1w" dmcf-ptype="general">최근 LLM 설계에서 중요한 지표로 거론되는 것은 추론 단계에서 사용되는 토큰량(reasoning tokens)과 추론 깊이(chain-of-thought depth)다. 기존 모델은 확신이 낮을 때 추가 추론을 늘리기보다 완충 문장이나 맥락 설명으로 응답을 확장하는 방식으로 계산 부담을 우회하는 경향이 있었다. </p> <p contents-hash="9dad3762fed9b46ae637a4ba672ac7019e11b3594fcd04ddffe8a2ed51766eb8" dmcf-pid="QiIVeRhDZD" dmcf-ptype="general">GPT-5.3에서 가장 눈에 띄는 변화는 바로 완충 구간의 축소다. 이전 모델은 질문을 받으면 먼저 맥락 설명이나 안전 설명을 덧붙인 뒤 본론으로 들어가는 경우가 많았다. GPT-5.3은 이런 구간을 상당 부분 줄이고 질문이 들어오면 데이터나 설명으로 바로 들어가는 응답 패턴을 강화했다. 사용자 입장에서는 대화 속도가 빨라진 것처럼 느껴지지만 실제로는 말로 시간을 벌던 구간이 제거된 것이다.</p> <p contents-hash="3c2cdd9693050b9605c30c05d5e7f0d9558f54a7ed2b6cc950802df097afa872" dmcf-pid="xnCfdelwtE" dmcf-ptype="general">이 변화는 단순한 스타일 조정 이상의 의미를 가진다. AI 설계 관점에서 보면 이는 언어 중심 모델에서 계산 중심 모델로 이동하는 신호로 해석될 수 있다. 말로 버티는 AI는 표현을 통해 계산을 우회한다. 반면 몸으로 때우는 계산 중심 AI는 연산을 통해 결과를 직접 산출한다. 즉 설명으로 버티던 구조가 연산으로 책임지는 구조로 이동하는 것이다.</p> <p contents-hash="4b94c9f63c18dad58c300ff7b2f4967b2a01d2261a50203d77196f1557c06749" dmcf-pid="y5fCHG8BXk" dmcf-ptype="general"><strong>더 깊어지고 더 비싸진 추론</strong><br><strong>몸으로 연산하는 구조 변화</strong></p> <p contents-hash="ce713b0d4b133522d0e273f3e7344140421487e839b2d7376919d2cd1a6a8edd" dmcf-pid="W14hXH6bXc" dmcf-ptype="general">이런 방향은 여성경제신문이 개발한 리버티 프로토콜이 제시한 '구조 명령' 개념과도 일정 부분 맞닿아 있다. 리버티 프로토콜은 부정이나 비교 같은 언어적 우회 경로를 줄이고 기준점과 편차 계산을 통해 결과를 표현하는 방식이다.</p> <p contents-hash="1d6ec64c66c4e41eddafb70e6f562a66c4d6a7f99d9e10b5a366167c4f65333b" dmcf-pid="Yt8lZXPKZA" dmcf-ptype="general">예를 들면 "맞다/틀리다" 같은 이분법 대신 기준 대비 위치를 계산하는 좌표 기반 서술 방식이다. GPT-5.3이 이런 구조 명령 시스템을 구현했다고 보기는 어렵지만 완충 문장이 줄어들면 모델이 선택할 수 있는 경로는 자연스럽게 좁아진다. 언어로 판단을 미루는 대신 직접 계산하는 경로가 강조된다. <strong>"말로만 버티던 AI 끝났다"···몸으로 때우는 '구조 명령' 프로토콜</strong></p> <p contents-hash="4532f4474ec6ea5479c06abee63fea9591910980c87f1c36658b22fae5f85979" dmcf-pid="GF6S5ZQ9Yj" dmcf-ptype="general">이러한 변화는 사고 방식에도 영향을 준다. 기존 언어 구조는 대부분 이분법에 기반한다. 맞다와 틀리다, 찬성과 반대, 좋다와 나쁘다 같은 구분이다. 반면 계산 중심 접근에서는 판단 대신 기준점과 거리 계산이 등장한다. 정책이나 사회 문제에 대한 질문에서도 기존 모델은 찬반 논리를 나열하며 결론을 미뤘다면 계산 중심 응답에서는 데이터 분포나 기준 대비 위치가 먼저 제시된다. 논쟁이 승패 중심이 아니라 위치 설명 중심으로 이동하는 방식이다.</p> <p contents-hash="119c21dff635164e706e46f1fabdc8751b4eded344767d250f677013775169a1" dmcf-pid="H3Pv15x25N" dmcf-ptype="general">물론 이런 전환에는 주의할 점도 있다. 완충 문장이 줄어들면 모델은 확신이 낮은 영역에서도 답을 내야 한다. 그 과정에서 오류나 환각 가능성이 높아질 수 있어 재귀적 연산 절차는 필수다. 오픈AI가 이번 업데이트에서 환각 감소를 함께 강조한 이유도 여기에 있다. 완충 문장 제거로 계산 부담이 늘어나고 그에 따른 오류 가능성을 감지와 검증 단계에서 보완하는 구조다.</p> <p contents-hash="042d974d74db44efeb5983d5bcc9e0c390231488a9a655e14226890659c1ba69" dmcf-pid="XX2OYWfzta" dmcf-ptype="general">GPT-5.3은 표면적으로는 작은 업데이트처럼 보일 수 있지만 구조적으로 보면 중요한 신호를 담고 있다. 지금까지 AI의 강점은 말을 그럴듯하게 만드는 능력이었다. 그러나 말로 시간을 벌 수 없게 되면 남는 것은 계산이다. 사용자가 느끼는 "더 자연스러운 대화"는 사실 AI가 더 말을 잘하게 되었기 때문이 아니라 말로 버티던 방식을 줄이기 시작했기 때문일 수 있다.</p> <p contents-hash="1e6bdec8a8ab4fcdbe12b647ba6f99aa8a224b793a61810a8719638a86b69eb9" dmcf-pid="ZZVIGY4q5g" dmcf-ptype="general"><strong>☞AI의 완충 표현</strong> = 인공지능이 확신이 낮거나 판단이 모호한 질문에 직면했을 때 결론을 바로 제시하기보다 언어적 여유 구간을 두어 응답을 완화하는 서술 방식이다. "그렇게 보기는 어렵다", "관점에 따라 다르게 해석될 수 있다", "단정하기는 어렵지만" 같은 표현이 대표적이며 새로운 정보를 추가하기보다는 판단을 지연시키거나 응답의 확률 위험을 낮추는 역할을 한다. 거대 언어 모델에서는 이러한 문장이 실제 추론 단계를 늘리기보다 언어로 계산 부담을 우회하는 장치로 작동한다.</p> <p contents-hash="38a2f0d8d6131d9ff9d633993cc95e73bf2f2e997a2e473ec6b38e891aa4a3c2" dmcf-pid="55fCHG8BGo" dmcf-ptype="general">여성경제신문 이상헌 기자<br>liberty@seoulmedia.co.kr</p> <p contents-hash="f015e21d277a4e9071cc7f147649ddb84ca1e2ade6dc8e74628fcb808c5f7554" dmcf-pid="114hXH6bZL" dmcf-ptype="general">*여성경제신문 기사는 기자 혹은 외부 필자가 작성 후 AI를 이용해 교정교열하고 문장을 다듬었음을 밝힙니다. 기사에 포함된 이미지 중 AI로 생성한 이미지는 사진 캡션에 밝혀두었습니다.</p> </section> </div> 관련자료 이전 "캐스팅 빌미로 금전요구"…'범죄도시5', 제작진 사칭 법적 대응 03-05 다음 키키, '델룰루' 첫 음방→스페셜 MC…'엠카운트다운' 접수 나서 03-05 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.