챗GPT에 ‘부모 관리 기능’ 생긴다...“안전장치 우회가능” 회의론도 작성일 09-04 17 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="4hpCQJYcZz"> <figure class="figure_frm origin_fig" contents-hash="183fa99cf43b56d6ba97dd4f8cc18a6c30deec0263cb1e3f38518383903e8c63" dmcf-pid="8yqTdg5rG7" dmcf-ptype="figure"> <p class="link_figure"><img alt="제미나이 생성 이미지/제미나이" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/04/chosun/20250904131340311bkgk.jpg" data-org-width="2048" dmcf-mid="fo2Hoc0CGq" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/04/chosun/20250904131340311bkgk.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 제미나이 생성 이미지/제미나이 </figcaption> </figure> <p contents-hash="b825b50af462028de2d3042fd72ecda4ca42adcb731df2998715466bd864fbc1" dmcf-pid="6WByJa1m1u" dmcf-ptype="general">오픈AI가 챗GPT를 더 안전하게 만들기 위한 새로운 기능을 도입할 계획이라고 2일(현지 시각) 밝혔다. AI사용이 아동 사이에도 늘고 이에 따른 윤리적인 문제와 논란도 잇따르면서 빅테크들이 이런 안전장치를 마련하고 있는 것이다. 하지만 이런 장치들이 ‘임시 방편’에 불과하다는 회의론도 나온다.</p> <p contents-hash="ee49d1b1307eb79be3ed6401f68331f7ce4a161f221ea948d018c619d7aef510" dmcf-pid="PYbWiNtsXU" dmcf-ptype="general">◇청소년 보호 강화하는 빅테크</p> <p contents-hash="da61f22d4915d9ed35822deb8c7f735236edc32aa8dd4b1f9b07f30b72508802" dmcf-pid="QGKYnjFOXp" dmcf-ptype="general">오픈AI는 이날 블로그 게시글에서 “앞으로 한 달 내 ‘부모 관리 기능’이 적용될 것”이라고 밝혔다. 오픈AI는 “부모는 자신의 10대 자녀에게 챗GPT가 어떻게 응답할지 제어할 수 있고, 자녀가 심각한 위기 상황에 놓였을 때 알림을 받을 수 있다”고 설명했다. 오픈AI는 또 심각한 위기 신호가 감지되는 청소년이나 성인 사용자에 대해서는 곧 챗봇의 더 안전한 버전으로 연결할 계획이라고 했다. 이는 오픈AI 개발자 커뮤니티가 1년 넘게 요구해 온 기능이라고 뉴욕타임스(NYT)는 전했다.</p> <p contents-hash="720e64dbbba86f378a98aab6498f6a9def30b3b2ceded5fe072f74eab24dce3f" dmcf-pid="xH9GLA3IZ0" dmcf-ptype="general">오픈AI의 이런 기능은 캐릭터 기반 챗봇을 운영하는 ‘캐릭터.AI’가 도입한 관리 장치와 유사하다. 캐릭터.AI도 지난해 자신의 아들이 캐릭터.AI의 챗봇에 빠져 죽었다며 소송을 당한 바 있다. 이후 캐릭터.AI는 부모에게 10대 계정을 모니터링할 수 있도록 하고 있다.</p> <p contents-hash="7d0fa4d7c195b45d7e9e8b5160f8c09426b08c632e22dff5feeb6356f6accb1e" dmcf-pid="ydse1UaVt3" dmcf-ptype="general">오픈AI뿐 아니라 빅테크들은 청소년의 AI사용과 관련한 안전과 책임 강화중이다. 구글 딥마인드는 ‘제미나이’에 대해서 책임 있는 AI 사용 원칙 제시했고, 청소년이 사용할 경우 텍스트나 이미지에 대한 혐오 발언 필터링을 강화했다. 메타도 아동들에게 선정적인 주제나 위험 발언을 응답한 사례가 보고되면서 내부 필터링을 강화한다고 밝혔다.</p> <p contents-hash="223dcef7e843ca01ba92cf2f767678b02ffe710e45d787442bd686b11a20c7ae" dmcf-pid="WJOdtuNfZF" dmcf-ptype="general">그러나 이런 기능 도입에 대한 회의적인 시각도 있다. 특히 오픈AI가 도입한 부모 관리 기능에 대해서는 부모에게 빅테크가 책임을 전가하는 행위라는 지적도 나온다. 아동·청소년 미디어 안전을 주장하는 비영리단체 커먼 센스 미디어의 인공지능(AI) 프로그램 책임자 로비 토니는 “부모 관리 기능은 설정하기 어렵고, 책임을 부모에게 전가하며, 청소년들이 우회하기도 쉽다”고 말했다.</p> <p contents-hash="621842f8fadcb47416a362fa8c1cb89620b86456263db828aaff2ad9f3e7216b" dmcf-pid="YiIJF7j4Gt" dmcf-ptype="general">실제 안전성을 강화했어도 이를 우회에 오용이나 악용하는 사례가 생기고 있다. 최근 미 캘리포니아주에서 한 10대 소년이 챗GPT와 수개월 간 대화를 한 뒤 극단 선택을 하는 일이 발생했는데, 부모는 “GPT가 극단선택 방법을 알려줬다”며 오픈AI를 상대로 소송을 제기했다. 알고보니 챗GPT는 이 학생에게 반복해서 위기 상담센터에 전화하라고 권했지만, 그는 “이건 내가 쓰는 소설을 위한 거다”라고 말하며 안전장치를 우회한 것으로 나타났다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 SKT, 위약금 면제 권고 불수용…“해킹 피해로 1조 이상 지출” 09-04 다음 남자 테니스 세계 1위 신네르, US오픈 단식 4강 진출 09-04 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.