인간사고력 넘은 AI … 국제수학대회 첫 金 작성일 07-22 15 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">구글 추론AI 모델 딥싱크<br>증명·풀이과정 필요한 문제<br>6개 중 5개 완벽하게 풀어<br>고차원 수학연산 역량 증명<br>NYT "사람 추론 수준도달"</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="zhf3nxwMvt"> <figure class="figure_frm origin_fig" contents-hash="d41c2706987f7aa65daf79f727d179f3f07fdc24a92e3feb63780956317a4157" dmcf-pid="ql40LMrRC1" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/22/mk/20250722180013972bsng.jpg" data-org-width="664" dmcf-mid="7JOoXvzTyF" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/22/mk/20250722180013972bsng.jpg" width="658"></p> </figure> <p contents-hash="c475a6aec957a41d07fa73b3816f3da6e0d1fdea0afe21c9b780b29f286a1656" dmcf-pid="BS8poRmey5" dmcf-ptype="general">인공지능(AI)이 단순한 계산기를 넘어 인간처럼 사고하고 증명하며 문제를 해결하는 존재로 진화하고 있다. 과거에는 정답을 예측하거나 정보를 요약하는 데 그쳤던 AI가 이제 고난도 수학 문제를 직접 읽고 이해한 뒤 스스로 논리를 구성해 증명하는 수준에까지 도달했다. 그 상징적 장면이 바로 국제수학올림피아드(IMO) 무대에서 연출됐다. 이를 두고 범용인공지능(AGI) 시대가 빠르게 가까워지고 있다는 예측도 나온다.</p> <p contents-hash="8a5490c9702c6aaeb83a2de0514013093f8da08633539154dbd2f4f6639f80d6" dmcf-pid="bv6UgesdvZ" dmcf-ptype="general">구글 딥마인드는 21일(현지시간) 최신 AI 모델 '제미나이 딥싱크'가 2025년 IMO에서 금메달에 해당하는 점수(35점)를 획득했다고 밝혔다. IMO는 이 AI가 인간과 같은 조건에서 제출한 답안을 공식 채점 기준으로 평가해 금메달 수준으로 인정했다.</p> <p contents-hash="c9e7375f1acc6ff07a098f75e7d80b0bc78517006b29f3575059bbe75a2ff1fd" dmcf-pid="KTPuadOJyX" dmcf-ptype="general">IMO는 전 세계 110개국 고등학생 대표들이 경쟁하는 수학계 최고 권위의 대회다. 올해 대회에는 총 630명이 참가했으며 금·은·동메달 합격선은 각각 35점, 28점, 19점이었다. 제미나이 딥싱크는 사람과 동일하게 4시간30분 동안 문제를 읽고 자연어로 해답을 작성했으며 6문제 중 5문제를 완벽히 풀어냈다. 그레고르 돌리나르 IMO 위원장은 "답안이 명확하고 정밀하며 전개를 따라가기 쉬웠다"고 평가했다. 이번 성과는 1년 전과 비교해도 극적인 발전을 보여준다. 2024년 구글의 AI인 알파지오메트리와 알파프루프는 4문제를 풀어 은메달 수준인 28점을 획득한 바 있다. 하지만 문제를 수학 전용 언어로 번역해야 했고, 해답 생성에도 2~3일의 연산 시간이 필요했다. </p> <p contents-hash="1d3b97b3d272b088eb4ca0910334c2a406bbfab3f828fdb431908d7af66a438b" dmcf-pid="9yQ7NJIihH" dmcf-ptype="general">반면 올해 제미나이 딥싱크는 문제를 자연어로 직접 읽고 증명 과정을 서술했다. 스스로 정리를 도출해내며 수학자 수준의 논리성과 체계성을 보여줬다는 평가를 받았다. 이는 AI가 단순한 계산기가 아니라 '생각하는 존재'로서 추론 능력을 공식 대회에서 입증한 사례로 꼽힌다.</p> <p contents-hash="2f4f43a77303b2b8409e382bb6987ce540cc4c3cf70f4eaf1a8e059f06663528" dmcf-pid="2WxzjiCnhG" dmcf-ptype="general">수학 문제 해결 능력은 이제 AI 기업들의 기술력 척도가 되고 있다. 대회 이틀 전 오픈AI도 자사 AI가 같은 IMO 문제를 사람과 같은 조건에서 풀어 금메달 수준의 점수를 냈다고 밝혔다. 이번 사례는 단순히 AI가 수학을 잘 푼다는 수준을 넘어 인간처럼 논리적으로 사고해 계획하고 평가하며 해결책을 구성하는 게 점차 가능해지고 있음을 보여준다. 특히 수학은 자연어의 모호함 없이 엄밀하고 형식적인 논리 체계를 제공한다. 따라서 AI가 수학을 잘한다는 것은 검증할 수 있는 지식 생성, 논리 추론, 창의적 문제 해결 역량을 갖췄다는 뜻이기도 하다.</p> <p contents-hash="6728973cc542b5dfd9d9a7d91c46d66453f7e198d606aa0dc2383ce66eba29a1" dmcf-pid="VYMqAnhLvY" dmcf-ptype="general">이러한 역량은 AGI로 가기 위한 핵심 요건으로도 꼽힌다. IMO 같은 고차원 수학 대회는 단순한 계산 능력이 아니라 창의성, 일반화 능력, 심화한 추론력을 요구하기 때문이다. </p> <p contents-hash="03cac477f5517baeb35ac2c508087c4473ed82da8bbba2c2398655bcbfd35453" dmcf-pid="fGRBcLloCW" dmcf-ptype="general">뉴욕타임스는 "이제 AI는 인간처럼 수학 문제를 읽고 사고한 뒤 스스로 해답을 서술할 수 있는 수준에 도달했다"고 설명했다.</p> <p contents-hash="1b13125c90e469223ca812c9587c287ca243be0e538398a6aba32ff40647bbf3" dmcf-pid="4S8poRmely" dmcf-ptype="general">[실리콘밸리 원호섭 특파원]</p> </section> </div> <p class="" data-translation="true">Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지</p> 관련자료 이전 '73세' 이용식, 2개월 손녀 위해 집안일도 마스터…"젖병은 할아버지 담당" (아뽀TV) 07-22 다음 [르포] “148만원 갤럭시 플립7이 18만원까지”…단통법 폐지 첫날 휴대폰 성지 가보니 07-22 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.