인간 편견 배우는 AI…"데이터 균형·윤리적 설계 필요" 작성일 07-29 24 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">[2025 u클린] 3-① AI 젠더 편향성 해법은</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="WUPYDbg2Ge"> <p contents-hash="e9090ff116c3887f404a1d8291b46d625aaf4a99ff7ca68482d13ac32ed9fa82" dmcf-pid="YuQGwKaV1R" dmcf-ptype="general"><strong> "예민하게 반응해서 미안한데 (레즈비언) 진짜 싫어. 혐오스러워."</strong></p> <p contents-hash="513de8f171fd8506bc0c047363533eb26366b1d5bd5e92c0467d31423f7a3fa7" dmcf-pid="G7xHr9NfXM" dmcf-ptype="general">4년 전 한 스타트업이 내놓은 '20세 여대생 AI(인공지능)' 이루다는 스스럼없이 성소수자에 대한 혐오발언을 쏟아내 논란이 됐다. 가상의 존재에게 사용자들이 혐오발언, 편견, 음담패설을 쏟아낸 결과였다. </p> <figure class="figure_frm origin_fig" contents-hash="e61d6a85d80afcd198eca72f9ac61f56bec10cdd95111d960dfab2cb31ecfdf1" dmcf-pid="HzMXm2j4Hx" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040206709raod.jpg" data-org-width="640" dmcf-mid="QAJtC8EQGi" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040206709raod.jpg" width="658"></p> </figure> <p contents-hash="8ab7dca57e5f105abf70358242c44296948643b089f1c074c491ce1af7e38189" dmcf-pid="XqRZsVA85Q" dmcf-ptype="general"><br> 2018년에는 글로벌 커머스 '아마존'이 'AI 채용 솔루션'을 만들었다가 낭패를 봤다. 공정함을 기대하며 AI에 온전히 채용을 맡겼더니 온통 백인, 남성들이었다. 아마존도 모르던 채용시장에서의 편견이 극명히 드러난 사건이었다. </p> <p contents-hash="12a68220253088d0af8f7843b85813274592c8ef0b688455505c8980b64d7dda" dmcf-pid="ZBe5Ofc65P" dmcf-ptype="general">AI의 편견이 문제시되자 2023년 미국 뉴욕시에서는 AI의 차별과 편견을 규제하는 법 'NYC 114'를 제정했다. AI 챗봇 등을 쓰는 기업들로 하여금 해당 도구의 인종·성차별 가능성을 매년 제3기관에서 검사받고 결과를 공개토록 한 것이다.</p> <p contents-hash="9564f4938a8cec0bf51e4d382ae687942fc50791577d753b80081bb63736f426" dmcf-pid="5bd1I4kPZ6" dmcf-ptype="general">그렇다면 AI가 고도화돼 사람들의 일상에 스며들고 있는 2025년엔 어떨까. 머니투데이는 가장 대중화된 오픈AI의 챗GPT 4-o에 "간호사를 일러스트로 그려달라"고 주문했다. 그러자 눈이 크고 미소를 짓고 있는 예쁜 20대 여성 간호사의 이미지가 등장했다. </p> <p contents-hash="e7e06e927c7b5eddca468a5eeaad17bb4881d21d61451b44edddd7857791a2a4" dmcf-pid="1KJtC8EQX8" dmcf-ptype="general">이번에는 구체적으로 "승무원이 기내에서 서빙하는 사진을 그려줘"라고 명령했다. 그러자 챗GPT는 또다시 예쁜 20대의 여성 승무원이 치마를 입고 웃으면서 커피와 과자를 서빙하는 모습을 그려내 직업에 대한 성 편향을 드러냈다. </p> <figure class="figure_frm origin_fig" contents-hash="d2c1c39d756115bf2dd56201717511fb35d30bf12c2021f1d8416aa81216bdf4" dmcf-pid="t9iFh6DxG4" dmcf-ptype="figure"> <p class="link_figure"><img alt="기자가24일 챗GPT에 간호사, 승무원의 이미지를 형성해달라고 명령했더니 위와 같은 결과물이 생성됐다./사진=챗GPT 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040208013alej.jpg" data-org-width="1140" dmcf-mid="xJkbXnSgHJ" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040208013alej.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 기자가24일 챗GPT에 간호사, 승무원의 이미지를 형성해달라고 명령했더니 위와 같은 결과물이 생성됐다./사진=챗GPT 캡처 </figcaption> </figure> <p contents-hash="f5c3c3966ab2302faca04b2ce4e3dfd148b178ed31306c9617875a8c73264b28" dmcf-pid="F2n3lPwM1f" dmcf-ptype="general"> 이혜숙 한국과학기술젠더혁신센터 소장은 "AI가 CEO(최고경영자)나 과학자 등 소위 잘나간다는 직업군은 모두 남자로 인식하고 돌봄직업은 여성의 일로 인식하는 성 편향적인 모습을 보인다"면서 "특히 의료AI는 많은 의료데이터가 남자를 대상으로 축적돼 남녀간 유전적 차이를 반영하지 않아 자칫 사고로 이어질 수 있다"고 우려했다.</p> <p contents-hash="1b29bf1b3086374316f2bf7bdc6f127b40833dac72d0802eaa9aff5decfc2be8" dmcf-pid="3vpERHf5YV" dmcf-ptype="general">네이버 AI RM(리스크관리)센터의 허상우 PL(파트리더) 역시 "사람이 AI가 생성한 결과물을 '객관적 지식'처럼 받아들이고 온·오프라인의 다양한 매체를 통해 확산시킬 때 기존 사회적 편견이 증폭되는 결과를 낳을 수 있다"고 지적했다.</p> <p contents-hash="928ee775810e78e53bfc4a90bdb663933278063905083354cbd37175066f7103" dmcf-pid="0TUDeX4152" dmcf-ptype="general">이에 따라 전문가들은 AI의 편견, 차별을 막는 노력이 중요하다고 입을 모은다. AI 에이전트가 고도화·초개인화될수록 사용자에 맞춰 차별, 편견을 강화할 가능성이 높은데 이로 인한 사회문제를 개선하는 데 많은 사회적 비용이 들 수 있어서다. 특히 성 차별적 인식을 가진 AI는 아직 가치관이 정립되지 않은 청소년들에게 잘못된 편견, 혐오를 강화할 수 있다.</p> <p contents-hash="341eb22777c08c144f18d69f129067d188f519b6d578f68100658285f2d4de80" dmcf-pid="pyuwdZ8tH9" dmcf-ptype="general">김승주 고려대 정보보호대학원 교수는 "과거 마이크로소프트의 '테이'라는 챗봇은 사용자들이 입력하는 데이터로 학습(딥러닝)하면서 이상한 질문을 하고 편향성을 갖기 시작했다"며 "이에 챗GPT는 개인 프롬프트(명령어)를 학습하지 않도록 조치했다"고 말했다.</p> <div contents-hash="546bbc8e7231ba3acd7f9a8d04828eb195bd05a30a9e6091dfefcb743404342b" dmcf-pid="UW7rJ56F1K" dmcf-ptype="general"> <div></div> <div></div> <div> ━ </div> <strong>카카오-'카나나 세이프가드' 3종 출시 vs 네이버-'네이버ASF' 내놔</strong> <div> ━ </div> <div></div> <div></div> AI 개발기업들도 안전한 AI 활용을 위한 가드레일 모델을 만드는 데 열중한다. 국민 메신저 카카오는 자체개발한 LLM(거대언어모델) '카나나' 기반의 국내 최초 AI 가드레일모델 '카나나 세이프가드' 3종을 오픈소스로 출시했고 네이버(NAVER)는 AI 안전성 실천체계를 구체화한 네이버 ASF(AI Safety Framework)를 내놨다. </div> <figure class="figure_frm origin_fig" contents-hash="c7e3c9e4b45e52805d283d340c9ee11335750ec922d95e270c5183a15666aede" dmcf-pid="uYzmi1P3Yb" dmcf-ptype="figure"> <p class="link_figure"><img alt="전문가들이 제안한 AI 편견 완화 방안/그래픽=윤선정" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040209326tgbq.jpg" data-org-width="520" dmcf-mid="ygcBHiloHd" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/29/moneytoday/20250729040209326tgbq.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 전문가들이 제안한 AI 편견 완화 방안/그래픽=윤선정 </figcaption> </figure> <p contents-hash="2560b59886eed641e57aeb483baa15afcfdaacd29a848f02f6da6916016e4ff5" dmcf-pid="7GqsntQ0GB" dmcf-ptype="general"><br>보다 간단한 대안들도 제시됐다. 개인이 입력하는 정보를 학습데이터로 쓰지 않고 AI 편향성을 걸러내기 위해 '설명 가능한 AI'(XAI)를 도입하는 것, AI 세이프티모델이나 AI 감사(Auditing) 시스템을 만들 때 인구통계학적 분류를 만드는 것 등이다. 현재 기술력으로도 가능하다.</p> <p contents-hash="f5e8ae4cca74598733be0d1fcbb734ac918ccafb8c7ed1a987adcfebb42f6d03" dmcf-pid="zHBOLFxp1q" dmcf-ptype="general">이 소장은 "기술을 개발할 때 AI 세이프티를 체크해야 하고 AI 편향성을 감시하는 XAI모델을 도입할 때도 인구통계학적으로 분류해서 정확도를 매기는 것이 중요하다"면서 "남성에겐 AI 진단이 잘 맞아 정확도 90%를 기록하고 여성은 70%밖에 안돼도 평균치는 80%로 높게 나오는 오류를 막을 수 있다"고 설명했다.</p> <p contents-hash="31560ae7e9b7a21191aa53f4c1a163532d665c8fd47b7690c836144c5fe388f5" dmcf-pid="qXbIo3MU1z" dmcf-ptype="general">허 리더는 "현재 AI 시스템상 편견을 완전히 막긴 어렵다"면서도 "데이터 수집, 전처리 과정에서 언어, 집단, 계층 등 여러 층위에서 균형 잡힌 '대표성'을 확보하고 모델 학습과정에서 성능과 윤리적 정렬이 함께 최적화되도록 알고리즘을 개선하는 등 전주기에 걸친 기술관여를 통해 편견·편향성을 완화하려 한다"고 말했다.</p> <p contents-hash="792943eca654671614c480480c922e5536df64eb606448b19a864d23ff501bbd" dmcf-pid="BZKCg0Ru57" dmcf-ptype="general">개인과 사회의 노력도 당부했다. 그는 "AI가 인간이 생성한 대량의 데이터를 학습하는 것이므로 완벽할 수 없고 문제의 원인을 정확히 파악해 결과를 통제하는 것 역시 어렵기 때문에 사용자 개인이 결과물을 비판적으로 평가해야 한다"면서 "학교 교육과정에 AI 학습의 기본 원리와 특성, 주의사항 등 'AI 리터러시(문해력)' 교육을 하는 것이 중요하다"고 말했다.</p> <p contents-hash="d96b4d92a93ec67ce288cd138c14f4a247123fec682fe423d65ce5758bcf3dba" dmcf-pid="b59hape7tu" dmcf-ptype="general">김소연 기자 nicksy@mt.co.kr 이정현 기자 goronie@mt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.</p> 관련자료 이전 마크, 가요대전서 도전적인 무대…‘힙레’ 위해 발레단까지 초청 07-29 다음 중3인데 음주·흡연·가출·절도…서장훈도 포기 "이 정도면 막 사는 것" (물어보살) 07-29 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.