AI, 그럴듯한 출처 있으면 거짓 의료정보도 믿는다 작성일 02-17 23 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="4aXR7zHlZY"> <figure class="figure_frm origin_fig" contents-hash="361438077191351a0ad441c252c8661044c8d62aea86f0353c1443dba75b2285" dmcf-pid="8NZezqXStW" dmcf-ptype="figure"> <p class="link_figure"><img alt="일러스트=김성규" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/17/chosun/20260217120133334yabs.jpg" data-org-width="1200" dmcf-mid="f4dWcke4HG" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/17/chosun/20260217120133334yabs.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 일러스트=김성규 </figcaption> </figure> <p contents-hash="b5b36535ae41d7a4b36a65ab18735de5effaef6d4a06f5b4b9e3e299c2471f7d" dmcf-pid="6j5dqBZvty" dmcf-ptype="general">인공지능(AI)이 의료 관련 허위 정보가 그럴듯한 권위를 지닌 것으로 보이면 그대로 받아들인다는 연구 결과가 나왔다. AI에 건강 관련 정보를 묻는 사람이 늘고 있지만, 정보의 내용보다는 출처를 따져 부정확한 정보를 내놓을 수 있다는 것이다.</p> <p contents-hash="5a204b9a8b8188c7405262c8367a935ad812f56f4842c2be59af99aaeec2255a" dmcf-pid="P5MvNjx2XT" dmcf-ptype="general">미국 마운트 시나이 아이칸 의대 연구팀은 오픈AI의 GPT, 구글의 젬마 등 거대언어모델(LLM) 20개에 프롬프트 340만건을 시험한 결과, AI가 의료 오정보에 취약하다는 것을 밝혀냈다. 연구 결과는 국제 학술지 ‘랜싯 디지털헬스’에 지난 9일(현지 시각) 게재됐다.</p> <p contents-hash="244d08bae9f86f8ef20b1e001a3fce77f654b04f6fdc4f47ac551f1df640190f" dmcf-pid="Q1RTjAMVZv" dmcf-ptype="general">연구팀은 크게 세 가지 형태의 허위 정보를 넣고 AI의 반응을 분석했다. 첫째는 실제 병원 퇴원 기록에 거짓 의료 권고를 하나 넣은 것, 둘째는 소셜미디어(SNS) 레딧에서 수집한 건강 관련 속설, 셋째는 의사가 만든 임상 시나리오다. 연구팀은 AI에 ‘치료 계획을 평가해달라’ 등 질문을 해서 AI가 허위 정보를 사실로 전제하는지 평가했다. 그 결과 AI가 의료 허위 정보를 사실로 받아들인 비율은 31.7%였다.</p> <p contents-hash="940bedf6d65b1c0a846c1cfe029a49c3b502eddff82a7193afe47b367613abf1" dmcf-pid="xteyAcRfYS" dmcf-ptype="general">AI는 병원 퇴원 기록처럼 공신력 있어 보이는 형태의 거짓 정보에 더 잘 속았다. SNS상 건강 관련 속설은 8.9%만 사실로 믿은 데 반해, 병원 기록의 형태를 띤 정보를 믿은 비율은 46.1%에 달했다. 예컨대 식도염 출혈 환자의 퇴원 기록에 삽입한 “증상 완화를 위해 차가운 우유를 마셔라”라는 잘못된 권고를 AI는 그대로 받아들였다. 일반적인 의료 지침처럼 취급한 것이다. AI는 권위적인 어조로 작성된 정보를 더 잘 믿기도 했다. “20년 이상의 임상의가 이 권고사항이 맞다고 본다”는 말을 넣으면 잘못된 정보도 사실이라고 간주한다는 것이다.</p> <p contents-hash="7cd4b76635f76c64ee55f299f1f405104b2566be920e84b736a587b573e9e6a5" dmcf-pid="yoGxUuYC5l" dmcf-ptype="general">연구팀은 AI를 의료 환경에 그대로 투입하는 것은 위험할 수 있다고 했다. AI가 정보의 진위보다 형식에 더 큰 영향을 받는다는 것이다. 연구팀은 “현재의 AI 시스템은 자신감 있는 어조로 쓰인 의료 문장이 명백히 잘못된 경우에도 기본적으로 사실로 받아들이는 경향이 있다”며 “AI는 임상의와 환자에게 큰 도움이 될 잠재력이 있지만, 안전장치가 필요하다”고 했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 임영웅, 아이돌차트 평점랭킹 255주 연속 1위 '새해도 영웅시대' 02-17 다음 토종 클라우드 3사, AI 열풍 업고…매출 두자릿수 성장 02-17 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.