카카오의 AI ‘카나나-o’, 한국어론 챗gpt 성능 앞섰다 작성일 12-12 27 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">12일 개발과정 및 성능 상황 공개<br>한국어 인식·지시이행 등 챗GPT-4o 능가<br>“사람처럼 상호작용 하는 AI구현할 것”</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="qyatODV7Wx"> <figure class="figure_frm origin_fig" contents-hash="65f89185b37b637c5c5ae69140ac88145b0e2b4ae3ec01a845ebacd4bcb9b67e" dmcf-pid="BWNFIwfzvQ" dmcf-ptype="figure"> <p class="link_figure"><img alt="카카오의 인공지능 통합 멀티모달 언어모델 ‘카나나-o’의 벤치마킹 성능. 카카오" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/12/seouleconomy/20251212150715634slxd.jpg" data-org-width="640" dmcf-mid="zofmdQXSTM" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/12/seouleconomy/20251212150715634slxd.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 카카오의 인공지능 통합 멀티모달 언어모델 ‘카나나-o’의 벤치마킹 성능. 카카오 </figcaption> </figure> <div contents-hash="b4f35dda429e09c2e96c925b7ffe21d4655a8192d8f4d98848cda382f7cc48aa" dmcf-pid="bYj3Cr4qhP" dmcf-ptype="general"> [서울경제] <p><span stockcode="035720">카카오(035720)</span>의 통합 멀티모달 언어모델 ‘카나나-o(Kanana-o)’가 한국어 음성 인식과 추론에 있어 챗GPT-4o의 성능을 넘어선 것으로 파악됐다. 최초 출시 이후 지속적으로 성능을 개선한 결과다.</p> </div> <p contents-hash="6f00260f07eb5460c7eee45957475a05a34a590469b8444e64dcb19660df1755" dmcf-pid="KpI9XyiPv6" dmcf-ptype="general">카카오는 12일 테크블로그를 통해 멀티모달 언어모델 카나나-o와 멀티모달 임베딩(Embedding) 모델 ‘카나나-v-임베딩(Kanana-v-embedding)’의 개발 과정과 성능을 공개했다. 이 글에서 카카오가 공개한 카나나-o의 벤치마크 평가 결과, 카카나-o는 영어 음성 성능에서 GPT-4o와 유사한 수준을 보였으며 한국어 음성 인식 및 합성, 감정 인식 능력에서는 월등히 높은 수준을 기록했다.</p> <p contents-hash="b034685e3daa75b9dfed9d663d3baca781a6c4c11bc5aa87605a2656dd5bb78f" dmcf-pid="9UC2ZWnQT8" dmcf-ptype="general">카카오는 지난 5월 텍스트와 음성, 이미지를 동시에 이해하고 실시간으로 답변하는 통합 멀티모달 언어모델로 카나나-o를 공개한 바 있다. 카카오는 기존 멀티모달 모델들이 텍스트 입력 시 강점을 보이지만 음성 대화 시에는 답변이 다소 단순해지고 추론 능력이 떨어진다는 한계에 주목해 카나나-o에는 지시이행 능력 개선에 주력했다. 고품질 음성 데이터와 억양·감정·호흡 등을 정교하게 학습시켜 기쁨·슬픔·분노·공포 등 상황 별 생생한 감정이나 미세한 음색·어조 변화 등에 따른 감정 표현 능력까지 개선했다고 카카오는 설명했다. 카카오는 “앞으로 더 자연스러운 동시 대화(Full-duplex)와 상황에 맞는 사운드스케이프(Soundscape)를 실시간 생성할 수 있는 진화된 모델로 발전시킬 예정”이라고 말했다.</p> <p contents-hash="c6ee34eadefa091992483cb8acf28879bd401c3338a4510628549b9290a7a77c" dmcf-pid="2uhV5YLxS4" dmcf-ptype="general">함께 공개된 카나나-v-임베딩은 텍스트와 이미지를 동시에 이해해 처리할 수 있는 한국형 멀티모달 모델이다. 텍스트로 이미지를 검색하거나, 사용자가 선택한 이미지와 관련된 정보를 검색하고, 이미지가 포함된 문서 검색 등을 지원한다. 경복궁이나 붕어빵 같은 한국의 고유명사를 이해하는 능력이 탁월하다는 것이 카카오 측의 설명이다. 카카오는 현재 카나나-v-임베딩을 내부에서 광고 소재의 유사도를 분석 및 심사하는 시스템에 적용 중이다. 향후 비디오나 음성으로 범위를 확대해 더욱 다양한 서비스에도 적용할 계획이다.</p> <p contents-hash="edefa69501c84fd9235df567dc1b5fa32a56a309914111d84cc80b49fe5db550" dmcf-pid="V7lf1GoMvf" dmcf-ptype="general">김병학 카카오 카나나 성과리더는 “실제 서비스 환경을 통해 사용자들의 일상 속 AI 기술 경험을 만들어 나가고, 사람처럼 상호작용 할 수 있는 AI의 구현에 주력해 갈 것”이라고 말했다.</p> <p contents-hash="37f295e28d1568d249a4d88e6e97fc7f02b5346ab38f0adac7c5f82684ef7c3a" dmcf-pid="fzS4tHgRlV" dmcf-ptype="general">한편 카카오는 모바일 기기 등 온디바이스 환경에서 동작할 수 있는 멀티모달 모델의 경량화 연구를 진행 중이다. 이와 고성능, 고효율 모델인 '카나나-2' 개발을 준비하고 있다.</p> <div contents-hash="df9655f17c35c49fb0200f9f7b156f36c030931b5b36820f9e3ac3dcc4ec0772" dmcf-pid="4qv8FXaeT2" dmcf-ptype="general"> 김흥록 기자 rok@sedaily.com </div> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 이 대통령 “연구개발 투자 빨리 복구해야”…내년 예산 역대 최대 12-12 다음 한국관광공사-동아일보, 서울마라톤 외국인 참가자 유치 증대 위한 MOU 체결 12-12 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.