'AI 윤리성 강화' 서두르는 기업들 작성일 07-29 26 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">[2025 u클린] 3-② '독자 AI 파운데이션 모델' 참여 10개사의 안전한 AI 만들기</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="W69WO4kPtQ"> <figure class="figure_frm origin_fig" contents-hash="275dcfcadcf43da32fdc9cbbbaf883b9706c0a016b8924c1699038b7467a4913" dmcf-pid="YP2YI8EQ1P" dmcf-ptype="figure"> <p class="link_figure"><img alt="생성형 AI의 차별과 편견을 줄이기 위한 노력/그래픽=김다나" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/29/moneytoday/20250729041206386vjdw.jpg" data-org-width="650" dmcf-mid="yx9WO4kPtx" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/29/moneytoday/20250729041206386vjdw.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 생성형 AI의 차별과 편견을 줄이기 위한 노력/그래픽=김다나 </figcaption> </figure> <p contents-hash="20220083ba8e0f5dd7ac9ffd2b748e82ce8a7c9f93a3cb157fbabce658ef91f1" dmcf-pid="GM4XlQrRY6" dmcf-ptype="general"><br> 과학기술정보통신부가 '독자 AI 파운데이션 모델' 프로젝트에서 서면평가를 거쳐 총 10개의 정예팀을 선정한 가운데 국산 AI(인공지능)의 윤리성이 주목받는다. 최근 몇 년 새 AI가 기업이나 산업현장뿐만 아니라 개인의 일상으로 파고들면서 단순보안뿐만 아니라 AI 응답에 차별이나 편견 등을 방지하는 윤리성도 중요해졌다.</p> <p contents-hash="90f61cec1876bc5cbcebb6f4f94c11451c69bd742ffce54f758a6a62f1f7866b" dmcf-pid="HR8ZSxmeH8" dmcf-ptype="general">AI 윤리성은 개발단계에서부터 신경 써야 하기에 대기업들은 거버넌스와 대응체계를 만들고 있다. 네이버(NAVER)는 최근 ASF(AI Safety Framework)를 발표했다. AI 시스템을 개발하고 배포하는 전과정에서 잠재적 위험을 인식·평가·관리하기 위한 대응체계다. 네이버는 ASF를 토대로 △AI 시스템 위험에 대한 실무적인 논의기구 '퓨처 AI 센터' △이사회에 보고할 위험을 판단하는 '리스크관리워킹그룹' △최종의사결정기구인 '이사회' 등 거버넌스도 구축했다.</p> <p contents-hash="7fefa5b8af3c6fad80a6e288aeeb9c415bfeb0127ee86788fb81e5ad9543241a" dmcf-pid="Xe65vMsdt4" dmcf-ptype="general">카카오도 그룹 차원의 거버넌스를 강화했다. 기존 '공동체 기술 윤리위원회'를 개편해 '그룹 기술윤리 소위원회'를 신설했다. 소위는 리스크 사전점검, 기술윤리정책 통합관리 등 선제대응을 맡는다. 카카오는 '책임 있는 AI를 위한 가이드라인'에 신체적·정신적·사회적 안전을 보장하는 신규 조항도 추가했다. 이밖에 SK텔레콤은 사람을 향한 AI라는 의미의 'T.H.E. AI'라는 AI 거버넌스의 기본원칙을 마련했고 LG AI연구원은 컨트롤타워인 'AI 윤리사무국', KT는 '책임감 있는 인공지능센터'를 설립해 개발단계에서부터 AI 윤리성을 점검하고 있다.</p> <p contents-hash="09f90fbe3811ab2c11c5b92034be48986a8b5a2915668816c99d9e110e290bb2" dmcf-pid="ZdP1TROJZf" dmcf-ptype="general">스타트업들도 발 빠르게 움직인다. 업스테이지는 양질의 AI 학습데이터를 수집하는 데이터 수집 및 공유플랫폼 '1T 클럽'을 운영 중이다. 업스테이지는 △사람 중심 △신뢰성 △공정성 △안전성 △보편성 5대 윤리원칙에 기반해 데이터를 정제하고 모델을 만드는 데 주력한다. 엔씨소프트에서 분사한 NC AI는 AI 윤리정보 라이브러리인 FAIR AI 웹사이트를 운영하며 콘텐츠를 제공한다. KAIST(카이스트)는 고품질 데이터만 골라 학습하는 신기술을 적용하는 게 목표다. 모티프테크놀로지스도 서울대, 카이스트를 비롯해 다수 기업 및 공공기관과 데이터 확보를 위한 컨소시엄을 구성했다.</p> <p contents-hash="8867bb495ad66e833c1cd132190ea883f7156985c130b88e8a6b53e03648ad99" dmcf-pid="5JQtyeIiZV" dmcf-ptype="general">AI 응답결과를 가지고 신뢰성을 높이려는 노력도 이어진다. 네이버는 '레드티밍'의 일환으로 먼저 모델을 공격한 뒤 이에 대한 응답데이터를 확보해 다시 모델의 학습에 이용한다. 코난테크놀로지는 LLM(거대언어모델)과 검색시스템을 결합한 RAG(검색증강생성) 기술로 답변의 정확도와 실시간성을 높였다. 또 LG AI연구원은 편향 뉴런을 정의하고 이를 제거해 편향성을 완화하는 방법을 개발했다.</p> <p contents-hash="7c62f9b5d6164237a9d60306db5e2e807f3e86975ad11b55f8b5ec5bde863d95" dmcf-pid="1ixFWdCnZ2" dmcf-ptype="general">이처럼 기업들이 생성형 AI의 차별과 편견을 방지하기 위해 애쓰는 가운데 기술 외적인 부분도 중요하다는 지적이 제기된다. 장병탁 서울대 AI연구원장은 "기술이 발전할수록 개인의 윤리의식이 점점 중요해진다. 교육분야에서도 노력이 필요하다"며 "개발과정부터 인문사회학자들이 적극적으로 참여해야 한다"고 말했다. </p> <p contents-hash="753b2ffe4e5238286a7bb18a44e231d39c1edfa806d2b66cdf189185b1e0da22" dmcf-pid="tnM3YJhLZ9" dmcf-ptype="general">이정현 기자 goronie@mt.co.kr 김소연 기자 nicksy@mt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.</p> 관련자료 이전 이규한♥솔비 커플, 이켠 '짝사랑' 황보…'오만추' 3기 시작부터 HOT [종합] 07-29 다음 마크, 가요대전서 도전적인 무대…‘힙레’ 위해 발레단까지 초청 07-29 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.